El libro proporciona los recursos teóricos necesarios para abordar problemas de distinta naturaleza relativos al Aprendizaje Automático y establece las pautas concretas para su aplicación a diversos problemas reales, que proporcionan una visión práctica de los temas tratados y a la vez establecen los mecanismos para su ampliación a otras aplicaciones.
Esta simbiosis teórico-práctica se concreta en la exposición de los conceptos teóricos, el diseño de métodos y procedimientos para su aplicación, la formulación de problemas y las estrategias para su solución.
Todo ello, complementado con numerosos ejemplos ilustrativos, figuras y referencias bibliográficas.
Además, con cada capítulo se incluye un Apéndice que describe una aplicación práctica relevante y el programa en código Matlab que la implementa.
De esta forma el lector, mediante la adquisición del libro, posee un conjunto de programas en código abierto, perfectamente descritos y estructurados, que le permiten consolidar los contenidos del libro, a la vez que ejercitarse, mediante la modificación de los programas. CAPÍTULO 1. APRENDIZAJE: CONCEPTOS GENERALES CAPÍTULO 2. APRENDIZAJE ESTADÍSTICO CAPÍTULO 3. COMBINACIÓN DE CLASIFICADORES CAPÍTULO 4. REDES NEURONALES ARTIFICIALES CAPÍTULO 5. MÁQUINAS DE VECTORES SOPORTE CAPÍTULO 6. REDES BAYESIANAS CAPÍTULO 7. SIMULACIONES DE MONTE CARLO I CAPÍTULO 8. SIMULACIONES DE MONTE CARLO - II CAPÍTULO 9. EL APRENDIZAJE CON ALGORITMOS GENÉTICOS CAPÍTULO 10. APRENDIZAJE MEDIANTE ÁRBOLES DE DECISIÓN CAPÍTULO 11. RAZONAMIENTO BASADO EN CASOS CAPÍTULO 12. APRENDIZAJE POR REFUERZO ÍNDICE ALFABÉTICO
PRÓLOGO
1.1 INTRODUCCIÓN
1.2 CLASIFICACIÓN
1.3 REGRESIÓN
1.4 PROBABILIDAD
1.4.1 Probabilidad de Bayes
1.4.2 Probabilidad de variables continuas
1.4.3 Medias y Varianzas
1.5 ESQUEMA GENERAL DEL APRENDIZAJE
1.5.1 Reconocimiento de patrones
1.5.2 Regresión
1.5.3 Estima de una densidad de probabilidad
1.6 ÁREAS RELACIONADAS CON EL APRENDIZAJE
1.7 ORGANIZACIÓN DEL LIBRO
2.1 INTRODUCCIÓN
2.2 AGRUPAMIENTO BORROSO
2.3 CLASIFICADOR PARAMÉTRICO: BAYES
2.3.1 Caso normal multivariable: media desconocida
2.3.2 Caso normal multivariable: media y matriz de covarianza desconocidas
2.3.3 Teoría de la decisión de Bayes: el clasificador Bayesiano
2.3.4 Medidas estadísticas
2.4 CLASIFICADOR NO PARAMÉTRICO: VENTANA DE PARZEN
2.5 APLICACIÓN PRÁCTICA
2.5.1 Clasificación de texturas en imágenes naturales
2.5.2 Método pseudoaleatorio de Balasko
2.5.3 Método de cuantización vectorial no supervisado
2.6 NOTAS FINALES
3.1 INTRODUCCIÓN
3.2 ASPECTOS GENERALES EN LA COMBINACIÓN DE CLASIFICADORES
3.2.1 Razones para la combinación
3.2.2 Tipos de combinaciones
3.3 COMBINACIONES NO ENTRENABLES
3.3.1 Votación Mayoritaria
3.3.2 Combinación de Bayes
3.3.3 Combinación mediante funciones
3.3.4 Combinación mediante operadores de agregación fuzzy
3.3.5 Resumen de los métodos no entrenables
3.4 COMBINACIONES ENTRENABLES: INTEGRAL FUZZY
3.5 APLICACIÓN PRÁCTICA
3.5.1 Procesos comunes
3.5.2 Procesos diferenciados
3.6 NOTAS FINALES
4.1 PRINCIPIOS BÁSICOS
4.1.1 Redes neuronales artificiales y su analogía con las neuronas biológicas
4.1.2 Elementos de una red neuronal
4.1.3 Ventajas de las redes neuronales
4.2 EL PROCESO DE APRENDIZAJE
4.2.1 Algoritmos de aprendizaje
4.2.2 Tipos de aprendizaje
4.3 REDES HACIA ADELANTE (FEED-FORWARD)
4.3.1 El perceptrón
4.3.2 Adaline
4.3.3 El perceptrón multicapa
4.4 REDES COMPETITIVAS
4.4.1 Mapas auto-organizados (SOM)
4.5 APLICACIONES PRÁCTICAS
4.6 NOTAS FINALES
5.1 INTRODUCCIÓN
5.2 SVM PARA CLASIFICACIÓN: CASO SEPARABLE
5.3 SVM EN CASOS NO SEPARABLES
5.3.1 Función de decisión lineal con errores
5.3.2 Clasificadores no lineales
5.4 RESOLUCIÓN DE UN PROBLEMA BICLASE CON FUNCIONES NÚCLEO
5.5 PROBLEMAS MULTICLASE
5.6 APLICACIÓN PRÁCTICA
5.6.1 Etapa de procesamiento
5.6.2 Etapa de entrenamiento
5.6.3 Etapa de validación
5.7 NOTAS FINALES
6.1 INTRODUCCIÓN
6.1.1 Notación
6.2 REDES BAYESIANAS
6.2.1 Modelo gráfico
6.2.2 Relaciones probabilísticas
6.3 ALGORITMOS DE INFERENCIA PROBABILÍSTICA
6.3.1 Algoritmos de inferencia exacta
6.3.2 Algoritmos de inferencia aproximada
6.4 APRENDIZAJE DE REDES BAYESIANAS
6.4.1 Aprendizaje paramétrico
6.4.2 Aprendizaje estructural
6.5 APLICACIÓN PRÁCTICA
6.5.1 Descripción del problema
6.5.2 Ejemplo básico
6.5.3 Datos de activación cerebral de Pittsburgh
6.6 NOTAS FINALES
7.1 INTRODUCCIÓN
7.2 PRESENTACIÓN FORMAL DEL PROBLEMA
7.3 INTEGRACIÓN DE MONTE CARLO
7.4 MÉTODOS AUXILIARES DE MUESTREO
7.4.1 Muestreo por rechazo (RS)
7.4.2 Muestreo Enfatizado (IS)
7.4.3 Remuestreo por pesos (WR)
7.5 APLICACIÓN PRÁCTICA
7.6 NOTAS FINALES
8.1 INTRODUCCIÓN
8.2 MÉTODOS DE SIMULACIÓN POR CADENAS DE MARKOV (MCMC)
8.2.1 Fundamento del método
8.2.2 Cadena general de los métodos de Metropolis-Hastings y Gibbs
8.2.3 Algoritmos de Metropolis-Hastings (MH)
8.2.4 Método de Gibbs
8.3 MÉTODOS SECUENCIALES DE MONTE CARLO
8.3.1 Descripción del problema
8.3.2 Filtros de Partículas (PF)
8.4 COMPARATIVA
8.4.1 Métodos de simulación generales
8.4.2 Algoritmos
8.5 APLICACIÓN PRÁCTICA
8.6 NOTAS FINALES
9.1 INTRODUCCIÓN
9.2 TIPOS DE APRENDIZAJE
9.3 LOS ALGORITMOS GENÉTICOS FRENTE A OTRAS TÉCNICAS
9.4 APLICACIÓN DE LOS ALGORITMOS GENÉTICOS
9.4.1 Un ejemplo práctico: la cerveza
9.4.2 Algoritmos Genéticos Multiobjetivo
9.5 GENERALIZACIÓN DEL EJEMPLO PROPUESTO
9.5.1 Elementos básicos de un AG
9.5.2 Técnicas de Selección
9.5.3 Técnicas de Cruce
9.5.4 La Mutación
9.5.5 Comparación entre el cruce y la mutación
9.5.6 Ajuste de Parámetros
9.6 MANEJO DE RESTRICCIONES
9.7 NOTAS FINALES
10.1 INTRODUCCIÓN
10.2 ÁRBOLES DE DECISIÓN
10.2.1 Formalización
10.3 ALGORITMO ID3
10.3.1 Determinación del atributo de ramificación
10.3.2 Modo de generación
10.4 ÁRBOL DE DECISIÓN FUZZY
10.4.1 Proceso de construcción del árbol borroso
10.5 APLICACIÓN PRÁCTICA
10.6 NOTAS FINALES
11.1 INTRODUCCIÓN
11.2 ESTRUCTURA PRINCIPAL Y PROBLEMÁTICA
11.2.1 Ciclo clásico de un CBR
11.2.2 Estructura de los Casos y Base de Casos
11.2.3 Recuperar
11.2.4 Reutilizar
11.2.5 Revisar
11.2.6 Recordar
11.3 APLICACIONES PRÁCTICAS
11.3.1 Un sistema CBR como ayuda en el procesamiento de imágenes
11.3.2 Un sistema CBR para la toma de decisiones
11.4 NOTAS FINALES
12.1 INTRODUCCIÓN
12.2 APRENDIZAJE Y REFUERZO
12.3 BÚSQUEDA EN EL ESPACIO DE POLÍTICAS
12.4 ASIGNACIÓN DE CRÉDITO TEMPORAL
12.5 FUNCIONES DE VALOR
12.6 LA PROPIEDAD DE MARKOV
12.7 ANÁLISIS DE COMPONENTES
12.7.1 Selección de acciones y exploración
12.7.2 Optimización
12.8 CONCLUSIONES
12.9 APLICACIÓN PRÁCTICA
12.10 NOTAS FINALES
DESCARGA DE APÉNDICES Y CÓDIGO
BIBLIOGRAFÍA