Optimización de algoritmos de clasificación basados en redes neuronales y máquinas de soporte vectorial
- Martínez López, Francisco Javier
- José Antonio Torres Arriaza Director/a
- Sergio Martínez Puertas Codirector/a
Universidad de defensa: Universidad de Almería
Fecha de defensa: 10 de abril de 2015
- José L. Salmerón Presidente/a
- Luis Fernando Iribarne Martínez Secretario/a
- Luis Alfonso Ureña López Vocal
Tipo: Tesis
Resumen
Las redes de función de base radial (RBF) tienen una valía totalmente demostrada y su aplicación es indiscutible en una amplia cantidad de ámbitos científicos. Un aspecto fundamental en esta herramienta está radicado en el proceso de entrenamiento, el cual determina tanto la eficiencia, en términos de tasa de aciertos en la posterior clasificación, como el rendimiento final, en términos de tiempo de ejecución (ya que es el proceso de entrenamiento de la RBF la fase más costosa en tiempo). De hecho, en la literatura hay abundantes estudios para la mejora de estos aspectos, la cual ha clasificado todas las técnicas de entrenamiento propuestas en técnicas iterativas, con muy buenos tiempos de ejecución del proceso de entrenamiento, y las técnicas exactas tradicionales, las cuales destacan por sus altas tasas de acierto en la clasificación. Dado que en nuestro ámbito de estudio requerimos el menor error posible en el proceso de clasificación, nuestra línea de investigación se decanta por el procedimiento exacto, si bien, trabajamos para mejorar las latencias altas en el proceso de entrenamiento. En un primer trabajo optamos por usar un Ensemble of Neural Nets, que suponía una técnica pseudo-exacta, con la que mejorábamos en orden medio de un 99.1638177% el tiempo de ejecución de dicho proceso de entrenamiento, con el uso de la arquitectura RBF-SOM. Tras esto, en futuros trabajos aprovechamos una de las características de dicha arquitectura, como es la posibilidad de paralelización de ésta en el proceso de entrenamiento. Así pues, nuestro siguiente trabajo propone una estructura RBF-SOM que paraleliza, gracias a CUDA, el proceso de entrenamiento. Esto lo denominaremos como la arquitectura CUDA-RBF-SOM, con la que mejorábamos en orden medio de un 99.8846% el tiempo de dicho proceso de entrenamiento. Por otro lado, también hemos estado trabajando con Máquinas de Soporte Vectorial (SVMs) las cuales mejoran los tiempos del proceso de entrenamiento, a costa de no alcanzar las altas tasas de eficiencia en el proceso de clasificación. Por ello, nuestra propuesta de mejora relacionada con SVM no está encaminada al tiempo de respuesta, sino a la eficiencia de la clasificación. Nuestro trabajo propone un cambio de métrica a favor de la distancia de Mahalanobis, en lugar de la distancia Euclídea. Este cambio de métrica no supone una reformulación matemática de la SVM, gracias a la Normalización Multivariable de las entradas en los procesos de entrenamiento y clasificación. Hemos demostrado matemáticamente que una SVM con la distancia de Mahalanobis es funcionalmente igual a la SVM con la distancia Euclídea, siempre que se trabaje con los datos de entrada normalizados como nuestro trabajo propone (Normalización Multivariable).