Sus orígenes...
Las SVM son clasificadores derivados de la teoría de aprendizaje estadístico postulada por Vapnik y Chervonenkis.
Fueron presentadas en 1992 y adquirieron fama cuando dieron resultados muy superiores a las redes neuronales en el reconocimiento de letra manuscrita, usando como entrada pixeles.
"Pretenden predecir a partir de lo ya conocido".
La máquina de vectores de soporte es un clasificador lineal que emplea la siguiente metodología:
- Mapear los puntos de entrenamiento a un espacio vectorial mayor.
- Construir un hiperplano que separe los puntos en sus clases respectivas.
- Clasificar un punto nuevo de acuerdo a su ubicación con respecto al hiperplano de separación.
Hiperplano de separación
Forma canónica del hiperplano
El propósito del entrenamiento es maximizar la distancia entre los patrones y el hiperplano de separación (para obtener un clasificador más confiable). Pero dado que w es inversamente proporcional a dicha distancia, este mismo problema se puede expresar como la minimización de w. Para esta operación se usan los multiplicadores de Lagrange:En el siguiente link se puede hallar una implementación en Java de SMO:
http://dm.hwanjoyu.org/svm-java/
No hay comentarios:
Publicar un comentario