1. Redes Neuronales Artificiales Esquemas de Aprendizaje Contenido: Clasificaciones de los métodos de aprendizaje en RNA Regla General o Aprendizaje Hebbiano Algoritmo de aprendizaje del Perceptron Algoritmo de aprendizaje Delta por el gradiente decreciente: Algoritmo de aprendizaje Backpropagation Ejemplo 1: Perceptron para la función AND Ejemplo 2: Red Multicapa para la detección de numeros par, impar, primo.
2. Redes Neuronales Artificiales Clasificaciones de los métodos de aprendizaje en RNA: Aprendizaje OFF LINE. Cuando el aprendizaje es OFF LINE se distingue entre una fase de aprendizaje y una fase de operación, existiendo un conjunto de datos de entrenamiento y un conjunto de datos de prueba que serán utilizados en la correspondiente fase. En estos casos los PESOS de las conexiones permanecen fijos después de que termina la etapa de entrenamiento de la red. Debido a que las redes de tipo OFF LINE presentan un carácter estático, estos sistemas no presentan problemas de estabilidad en su funcionamiento.
3. Redes Neuronales Artificiales Clasificaciones de los métodos de aprendizaje en RNA: Redes con aprendizaje ON LINE. En estas redes no se distingue entre la fase de entrenamiento y de operación, de tal forma que los PESOS varían dinámicamente siempre que se presente una nueva información al sistema. En las redes ON LINE debido al carácter dinámico de la misma, es importante el estudio de la estabilidad de la red.
4. Redes Neuronales Artificiales Clasificaciones de los métodos de aprendizaje en RNA: La regla de aprendizaje de una red son criterios que se siguen para cambiar el valor asignado a las conexiones (o sea cómo se modifican los valores de los pesos). Existen dos tipos de reglas de aprendizaje: 1) El aprendizaje supervisado, y 2) El aprendizaje no supervisado.
5. Redes Neuronales Artificiales Clasificaciones de los métodos de aprendizaje en RNA: Tipos de aprendizajes supervisados: Aprendizaje por corrección de error. Aprendizaje por refuerzo. Aprendizaje estocástico.
6. Redes Neuronales Artificiales Clasificaciones de los métodos de aprendizaje en RNA: El Aprendizaje Por Corrección De Error: Este aprendizaje consiste en ajustar los pesos de las conexiones de la red en función de la diferencia entre los valores deseados y los obtenidos en la salida de la red. Ejemplos: La regla de aprendizaje del Perceptron; regla delta o regla del mínimo error cuadrado o regla de Widrow-Hoff, ADALINE y MADALINE.
7. Redes Neuronales Artificiales Clasificaciones de los métodos de aprendizaje en RNA: El Aprendizaje Reforzamiento: Es una variante de aprendizaje supervisado a la cual se informa a la red solamente una critica de corrección de salida de red y no la respuesta correcta en si.
8. Redes Neuronales Artificiales Clasificaciones de los métodos de aprendizaje en RNA: El Aprendizaje Estocastico: Consiste básicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de las distribuciones de probabilidad. Ejemplo: la red Maquina de Cauchy
9. Redes Neuronales Artificiales Clasificaciones de los métodos de aprendizaje en RNA: Tipos de algoritmos de aprendizaje no supervisado: Aprendizaje Hebbiano. Aprendizaje competitivo y cooperativo.
11. Redes Neuronales Artificiales Algoritmo de aprendizaje del Perceptron: Igual, solo diferencia en que si la salida de la neurona iguala al valore deseado, no se modifican los pesos, mientras que en el caso general, hay una búsqueda del mínimo error.
12. Redes Neuronales Artificiales Algoritmo de aprendizaje Delta por el gradiente decreciente: Converge sólo asintóticamente al mínimo aún cuando el problema no es linealmente separable. Es la base del algoritmo Backpropagation. • Regla: minimizar el error cuadrático medio LMS • ¿Cómo minimizarlo? Nos movemos en la dirección que más reduce el error, es decir, en la dirección negativa del vector gradiente. • Diferencias: Perceptrón función de activación con umbral, Gradiente no Perceptrón actualización por ejemplo, Gradiente todos los datos Perceptrón: minimiza w Gradiente: minimiza error
14. Redes Neuronales Artificiales Algoritmo de aprendizaje Delta por el gradiente decreciente: Inicialización aleatoria del vector de pesos <w0, . . . ,wn> Mientras (no se cumpla la condición de parada) hacer ∆ wi 0 para todo i Para cada ejemplo de entrada <(x1,...,xn), f(x1,...,xn)> Se calcula la salida de la red: h(x1,...,xn)= x1w1+ … + xnwn + w0 Para cada peso wi hacer ∆ wi ∆ wi + h ( f(x1,...,xn) - h(x1,...,xn) ) xi Fin Para Fin Para wi wi + ∆ wi Fin Mientras Retornar w Fin
15. Redes Neuronales Artificiales Algoritmo de aprendizaje Backpropagation: Inicialización aleatoria de todos los pesos de la red (valores pequeños) Mientras (no se cumpla la condición de parada) hacer Para cada ejemplo de entrada <(x1,...,xn), f(x1,...,xn)> Se calcula la salida de cada neurona s de salida hs(x1,...,xn) Propagar los errores a través de la red Para cada neurona s de la capa de salida se calcula su error hacer ds=hs(1-hs)(fs-hs) Para cada neurona o de la capa oculta hacer do=ho(1-ho)Sswso ds Para todos los pesos de la red wji wji + ∆ wji donde ∆ wji = wji + h doxji Fin Mientras Retornar pesos Fin Algoritmo