SlideShare une entreprise Scribd logo
1  sur  14
Redes Neuronales
 ( El Perceptron)
Redes Neuronales
                 ( El Perceptron)

 Definición: Primer modelo de red neuronal
    artificial desarrollado por Rosemblat en 1958.
    Consta de un numero arbitrario de Capaz.
   El Perceptron Simple (P.S):Es un modelo
    unidireccional, compuesto por dos capas de
    neuronas, una sensorial o de entrada y otra de
    salida. La operación de una red de este tipo con
    “n” neuronas de entrada (Unidades de
    Procesamiento (U.P) y “m” de salida y su modo
    de entrenamiento es de tipo supervisado
El Perceptron


Arquitectura del Perceptron
El Perceptron


       El computo que ejecuta el perceptron es:
                                          n
                             yi (t ) = f (∑ wij x j ± u )
                                         j= 1
:
       Donde:
     yi (t ) : Es la salida de la i-esima U.P
    wij : Es el peso sináptico correspondiente a la j-esima
         entrada de la i-esima U.P
    x j : Es la componente j-esima del patrón de entrada
    u : : Representa un valor umbral
El Perceptron

       Regla de aprendizaje del Perceptron
    Determinar los pesos Sinápticos para que el
  dispositivo represente la relación entrada-salida lo
  mas fidedigna posible. La regla de aprendizaje
  permite corregir los pesos sinápticos para que
  alcancen los valore deseado, partiendo de un
  conjunto de pesos inicializados aleatoriamente.

                  δ wij = λ (ζ i − si ) x j
 λ : Regula la velocidad de aprendizaje (0≤ λ ≤1)
ζ : Es la componente i-esima del patrón de salida
   deseado
El Perceptron

Dinámica del perceptron
  El funcionamiento para ejecutar un patrón de la red es el
 siguiente:
  1. Se establece el patrón de entrada en los sensores, la
 capa de entrada.
 2. Se actualizan las neuronas de la capa de Salida.
  Las neuronas de actualizan de la siguiente manera:
 Sea el potencial de la neurona i,
 El peso asociado a la sinapsis que une la neurona i de la
 capa actual
 y j de la capa de sensores.
 El estado del sensor j
 Entonces
 Y el estado de la neurona es o bien la función escalón si las
 entradas de la red son binarias o bien la función signo si las
 entradas son bipolares {-1 ,1} estado-neurona J= Signo
 ( Sumatorio ( Peso(ij)*Estado(j))
El Perceptron

 Aprendizaje del perceptron
 Los pasos para que la red aprenda una lista de patrones
 son los siguientes
1 Tomar un patrón al azar de la lista.
 2 Se establece el patrón de entrada en los sensores, la
 capa de entrada.
 3 Se establecen los valores deseados en las neuronas
 de la capa de salida
 4 Se actualizan las neuronas de la capa de Salida.
 5 Solicitar que aprendan todas las sinapsis
 6 Si las sinapsis han cambiado volver al paso 1
 Si no han cambiado la red se ha estabilizado y paramos
El Perceptron

   Las sinapsis que une las neuronas i, j aprenderá de la
    siguiente manera:
   Sea
   Ei = el estado de la neurona de la capa de entrada i,
   Pij =
    El peso actual asociado a la sinapsis que une la neurona i
    de la capa de entrada y la neurona j de la capa de salida.
   Ej = El estado de la neurona de la capa de salida j
   Sj = El valor deseado para esa neurona
   Pijnuevo = El peso Pij actualizado.
   TASA =Es una constante entre 0 y 1 que indica cuanto
    aprende la red
El Perceptron


   Pijnuevo = El peso Pij actualizado.
   TASA =Es una constante entre 0 y 1 que indica cuanto
    aprende la red
   Pijnuevo = Pij + Tasa*(( Ej - Sj) *Ei)

           Hay que destacar que el perceptrón aprende solo
    cuando se equivoca al clasificar el patrón. Si clasifica
    correctamente el patrón, esto es , entonces con lo que no
     hay aprendizaje.
El Perceptron - Algoritmo
Leer Numero_de_Patrones:
 Numero_de_Entradas;
 Inicializar Pesos( i );
 Numero de Iteraciones;
1. Repita Hasta hay_error=Falso o Numero de iteraciones>500
   Hay_Error=Falso
   Repita desde patron=1 Hasta Numero_de_Patrones
   Leer Entradas, Leer Salida_Esperada, Neta=0
   Repita desde patron =1 Hasta Numero _de_Entradas
   Neta=Neta+( Pesos( I )* Entradas( I ) ) [Suma Ponderada]
   Neta=Neta+Umbral
   Si Neta ≥0 entonces Salida=1 [Funcion Escalon]
                Sino Salida=0
    Error=Salida_Esperada – Salida
     Si Error<>0 Entonces
        Pesos (i)= Pesos(i) + (Error*Entradas(i))
        Hay_Error=Verdadero
        Umbral=Umbral + Error
         Numero_de_Iteraciones = Numero_de_Iteraciones +1
El Modelo Adaline


Red ADALINE
       Las redes ADALINE (Adaptative Linear Element),
fueron desarrolladas por Bernie Widrow en la
Universidad de Stanford. Dicha red usa neuronas con
función de transferencia escalón, y está limitada a una
única neurona de salida. Su arquitectura es análoga a la
del Perceptron, difiere solo en el uso de otras funciones
de transferencia. El computo que ejecuta el ADALINE
es el siguiente
                         m
             sr = F (∑ rj x j )
                      w
                        j=1
El Modelo Adaline
 Donde F es una función de transferencia continua y
 diferenciable(tipicamente una función Sigmoidea,
 sigmoidea bipolar o la función Lineal)

           Función de Costo y Aprendizaje
Se emplea como función de costo, E(W), la suma de los
 cuadrados de los errores que comete el dispositivo,
 sobre todos los patrones de entrenamiento


  E (ϖ ) = 1 / 2∑ (ζ iu − siu ) 2 = 1 / 2∑ (ζ iu − F (∑ wik xku )) 2
                 iu                     iu             k
El Modelo Adaline

     La función tiende a cero cuando los pesos se hacen
mejores. Esta regla de aprendizaje se conoce como la
regla delta o de Widrow-Hoff o regla LMS (the Least
Mean Squared)

            Arquitectura del ADALINE
GRACIAS POR SU ATENCION

Contenu connexe

Tendances

Tipos de gramatica y arboles de derivacion
Tipos de gramatica y arboles de derivacionTipos de gramatica y arboles de derivacion
Tipos de gramatica y arboles de derivacionjorge severino
 
Poo 3 herencia
Poo 3 herenciaPoo 3 herencia
Poo 3 herenciajlmanmons
 
Máquinas de Turing - Tipos y Aplicaciones
Máquinas de Turing - Tipos y AplicacionesMáquinas de Turing - Tipos y Aplicaciones
Máquinas de Turing - Tipos y AplicacionesRosviannis Barreiro
 
Tema 3 Variables LingüíSticas, Variables Difusas Y Reglas Difusas. Razonamien...
Tema 3 Variables LingüíSticas, Variables Difusas Y Reglas Difusas. Razonamien...Tema 3 Variables LingüíSticas, Variables Difusas Y Reglas Difusas. Razonamien...
Tema 3 Variables LingüíSticas, Variables Difusas Y Reglas Difusas. Razonamien...ESCOM
 
Sistemas Operativos I- Algoritmo de QUANTUM
Sistemas Operativos I- Algoritmo de QUANTUMSistemas Operativos I- Algoritmo de QUANTUM
Sistemas Operativos I- Algoritmo de QUANTUMMari Cruz
 
Autómatas de Pila
Autómatas de PilaAutómatas de Pila
Autómatas de PilaPablo Guerra
 
Programación Orientada a Objetos - atributos y métodos
Programación Orientada a Objetos - atributos y métodosProgramación Orientada a Objetos - atributos y métodos
Programación Orientada a Objetos - atributos y métodosAlvaro Enrique Ruano
 
Tipos de Autómatas 
Tipos de Autómatas Tipos de Autómatas 
Tipos de Autómatas yelizabeth_20
 
Tópicos Avanzados de Programación - Unidad 3 programacion concurrente
Tópicos Avanzados de Programación - Unidad 3 programacion concurrenteTópicos Avanzados de Programación - Unidad 3 programacion concurrente
Tópicos Avanzados de Programación - Unidad 3 programacion concurrenteJosé Antonio Sandoval Acosta
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón MulticapaESCOM
 
P. estructurada vs. programación orientada a objetos
P. estructurada vs. programación orientada a objetosP. estructurada vs. programación orientada a objetos
P. estructurada vs. programación orientada a objetosGeovanny Yungán
 
Programacion Orientada a Objetos en python
Programacion Orientada a Objetos en pythonProgramacion Orientada a Objetos en python
Programacion Orientada a Objetos en pythonwozgeass
 
Estructuras de control
Estructuras de controlEstructuras de control
Estructuras de controlLic_Vera
 

Tendances (20)

Tipos de gramatica y arboles de derivacion
Tipos de gramatica y arboles de derivacionTipos de gramatica y arboles de derivacion
Tipos de gramatica y arboles de derivacion
 
Poo 3 herencia
Poo 3 herenciaPoo 3 herencia
Poo 3 herencia
 
Máquinas de Turing - Tipos y Aplicaciones
Máquinas de Turing - Tipos y AplicacionesMáquinas de Turing - Tipos y Aplicaciones
Máquinas de Turing - Tipos y Aplicaciones
 
Recorrido en árboles binarios
Recorrido en árboles binariosRecorrido en árboles binarios
Recorrido en árboles binarios
 
Tema 3 Variables LingüíSticas, Variables Difusas Y Reglas Difusas. Razonamien...
Tema 3 Variables LingüíSticas, Variables Difusas Y Reglas Difusas. Razonamien...Tema 3 Variables LingüíSticas, Variables Difusas Y Reglas Difusas. Razonamien...
Tema 3 Variables LingüíSticas, Variables Difusas Y Reglas Difusas. Razonamien...
 
Sistemas Operativos I- Algoritmo de QUANTUM
Sistemas Operativos I- Algoritmo de QUANTUMSistemas Operativos I- Algoritmo de QUANTUM
Sistemas Operativos I- Algoritmo de QUANTUM
 
Autómatas de Pila
Autómatas de PilaAutómatas de Pila
Autómatas de Pila
 
Procesamiento superescalar
Procesamiento superescalarProcesamiento superescalar
Procesamiento superescalar
 
Programación Orientada a Objetos - atributos y métodos
Programación Orientada a Objetos - atributos y métodosProgramación Orientada a Objetos - atributos y métodos
Programación Orientada a Objetos - atributos y métodos
 
Tipos de Autómatas 
Tipos de Autómatas Tipos de Autómatas 
Tipos de Autómatas 
 
Tópicos Avanzados de Programación - Unidad 3 programacion concurrente
Tópicos Avanzados de Programación - Unidad 3 programacion concurrenteTópicos Avanzados de Programación - Unidad 3 programacion concurrente
Tópicos Avanzados de Programación - Unidad 3 programacion concurrente
 
Teoría de autómatas
Teoría de autómatasTeoría de autómatas
Teoría de autómatas
 
JSON
JSONJSON
JSON
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
 
Sistemas operativos; procesos
Sistemas operativos; procesosSistemas operativos; procesos
Sistemas operativos; procesos
 
P. estructurada vs. programación orientada a objetos
P. estructurada vs. programación orientada a objetosP. estructurada vs. programación orientada a objetos
P. estructurada vs. programación orientada a objetos
 
Programacion Orientada a Objetos en python
Programacion Orientada a Objetos en pythonProgramacion Orientada a Objetos en python
Programacion Orientada a Objetos en python
 
Estructuras de control
Estructuras de controlEstructuras de control
Estructuras de control
 
Componentes en-poo
Componentes en-pooComponentes en-poo
Componentes en-poo
 
Tutorial de JFLAP
Tutorial de JFLAPTutorial de JFLAP
Tutorial de JFLAP
 

En vedette

Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla AprendizajeRoberth Figueroa-Diaz
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
La comunicacion didactica_en_los_chats_academicos
La comunicacion didactica_en_los_chats_academicosLa comunicacion didactica_en_los_chats_academicos
La comunicacion didactica_en_los_chats_academicosedeciofreitez
 
Utp 2014-2_ia_s2_intro a las rna
 Utp 2014-2_ia_s2_intro a las rna  Utp 2014-2_ia_s2_intro a las rna
Utp 2014-2_ia_s2_intro a las rna c09271
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 

En vedette (6)

Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
La comunicacion didactica_en_los_chats_academicos
La comunicacion didactica_en_los_chats_academicosLa comunicacion didactica_en_los_chats_academicos
La comunicacion didactica_en_los_chats_academicos
 
Utp 2014-2_ia_s2_intro a las rna
 Utp 2014-2_ia_s2_intro a las rna  Utp 2014-2_ia_s2_intro a las rna
Utp 2014-2_ia_s2_intro a las rna
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 

Similaire à Perceptron parte 1

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y AdalineSpacetoshare
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificialesSpacetoshare
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansigVanee2014
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptronjcbp_peru
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptronjcbp_peru
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosESCOM
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONESCOM
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 

Similaire à Perceptron parte 1 (20)

Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y Adaline
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Rna10
Rna10Rna10
Rna10
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Perceptrón
PerceptrónPerceptrón
Perceptrón
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Boletin3
Boletin3Boletin3
Boletin3
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 

Plus de edeciofreitez

Plus de edeciofreitez (9)

Sistema Experto Ejemplo
Sistema Experto EjemploSistema Experto Ejemplo
Sistema Experto Ejemplo
 
Propuesta final del cuft
Propuesta final del cuftPropuesta final del cuft
Propuesta final del cuft
 
Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
 
Conjuntos regulares 04[1]
Conjuntos regulares 04[1]Conjuntos regulares 04[1]
Conjuntos regulares 04[1]
 
Clase afd
Clase afdClase afd
Clase afd
 
Modu saya 4
Modu saya 4Modu saya 4
Modu saya 4
 
Mod auto 4
Mod auto 4Mod auto 4
Mod auto 4
 
Mod auto 4
Mod auto 4Mod auto 4
Mod auto 4
 
Infografia
InfografiaInfografia
Infografia
 

Perceptron parte 1

  • 1. Redes Neuronales ( El Perceptron)
  • 2. Redes Neuronales ( El Perceptron)  Definición: Primer modelo de red neuronal artificial desarrollado por Rosemblat en 1958. Consta de un numero arbitrario de Capaz.  El Perceptron Simple (P.S):Es un modelo unidireccional, compuesto por dos capas de neuronas, una sensorial o de entrada y otra de salida. La operación de una red de este tipo con “n” neuronas de entrada (Unidades de Procesamiento (U.P) y “m” de salida y su modo de entrenamiento es de tipo supervisado
  • 4. El Perceptron El computo que ejecuta el perceptron es: n yi (t ) = f (∑ wij x j ± u ) j= 1 : Donde: yi (t ) : Es la salida de la i-esima U.P wij : Es el peso sináptico correspondiente a la j-esima entrada de la i-esima U.P x j : Es la componente j-esima del patrón de entrada u : : Representa un valor umbral
  • 5. El Perceptron Regla de aprendizaje del Perceptron Determinar los pesos Sinápticos para que el dispositivo represente la relación entrada-salida lo mas fidedigna posible. La regla de aprendizaje permite corregir los pesos sinápticos para que alcancen los valore deseado, partiendo de un conjunto de pesos inicializados aleatoriamente. δ wij = λ (ζ i − si ) x j λ : Regula la velocidad de aprendizaje (0≤ λ ≤1) ζ : Es la componente i-esima del patrón de salida deseado
  • 6. El Perceptron Dinámica del perceptron El funcionamiento para ejecutar un patrón de la red es el siguiente: 1. Se establece el patrón de entrada en los sensores, la capa de entrada. 2. Se actualizan las neuronas de la capa de Salida. Las neuronas de actualizan de la siguiente manera: Sea el potencial de la neurona i, El peso asociado a la sinapsis que une la neurona i de la capa actual y j de la capa de sensores. El estado del sensor j Entonces Y el estado de la neurona es o bien la función escalón si las entradas de la red son binarias o bien la función signo si las entradas son bipolares {-1 ,1} estado-neurona J= Signo ( Sumatorio ( Peso(ij)*Estado(j))
  • 7. El Perceptron Aprendizaje del perceptron Los pasos para que la red aprenda una lista de patrones son los siguientes 1 Tomar un patrón al azar de la lista. 2 Se establece el patrón de entrada en los sensores, la capa de entrada. 3 Se establecen los valores deseados en las neuronas de la capa de salida 4 Se actualizan las neuronas de la capa de Salida. 5 Solicitar que aprendan todas las sinapsis 6 Si las sinapsis han cambiado volver al paso 1 Si no han cambiado la red se ha estabilizado y paramos
  • 8. El Perceptron  Las sinapsis que une las neuronas i, j aprenderá de la siguiente manera:  Sea  Ei = el estado de la neurona de la capa de entrada i,  Pij = El peso actual asociado a la sinapsis que une la neurona i de la capa de entrada y la neurona j de la capa de salida.  Ej = El estado de la neurona de la capa de salida j  Sj = El valor deseado para esa neurona  Pijnuevo = El peso Pij actualizado.  TASA =Es una constante entre 0 y 1 que indica cuanto aprende la red
  • 9. El Perceptron  Pijnuevo = El peso Pij actualizado.  TASA =Es una constante entre 0 y 1 que indica cuanto aprende la red  Pijnuevo = Pij + Tasa*(( Ej - Sj) *Ei) Hay que destacar que el perceptrón aprende solo cuando se equivoca al clasificar el patrón. Si clasifica correctamente el patrón, esto es , entonces con lo que no hay aprendizaje.
  • 10. El Perceptron - Algoritmo Leer Numero_de_Patrones: Numero_de_Entradas; Inicializar Pesos( i ); Numero de Iteraciones; 1. Repita Hasta hay_error=Falso o Numero de iteraciones>500 Hay_Error=Falso Repita desde patron=1 Hasta Numero_de_Patrones Leer Entradas, Leer Salida_Esperada, Neta=0 Repita desde patron =1 Hasta Numero _de_Entradas Neta=Neta+( Pesos( I )* Entradas( I ) ) [Suma Ponderada] Neta=Neta+Umbral Si Neta ≥0 entonces Salida=1 [Funcion Escalon] Sino Salida=0 Error=Salida_Esperada – Salida Si Error<>0 Entonces Pesos (i)= Pesos(i) + (Error*Entradas(i)) Hay_Error=Verdadero Umbral=Umbral + Error Numero_de_Iteraciones = Numero_de_Iteraciones +1
  • 11. El Modelo Adaline Red ADALINE Las redes ADALINE (Adaptative Linear Element), fueron desarrolladas por Bernie Widrow en la Universidad de Stanford. Dicha red usa neuronas con función de transferencia escalón, y está limitada a una única neurona de salida. Su arquitectura es análoga a la del Perceptron, difiere solo en el uso de otras funciones de transferencia. El computo que ejecuta el ADALINE es el siguiente m sr = F (∑ rj x j ) w j=1
  • 12. El Modelo Adaline Donde F es una función de transferencia continua y diferenciable(tipicamente una función Sigmoidea, sigmoidea bipolar o la función Lineal) Función de Costo y Aprendizaje Se emplea como función de costo, E(W), la suma de los cuadrados de los errores que comete el dispositivo, sobre todos los patrones de entrenamiento E (ϖ ) = 1 / 2∑ (ζ iu − siu ) 2 = 1 / 2∑ (ζ iu − F (∑ wik xku )) 2 iu iu k
  • 13. El Modelo Adaline La función tiende a cero cuando los pesos se hacen mejores. Esta regla de aprendizaje se conoce como la regla delta o de Widrow-Hoff o regla LMS (the Least Mean Squared) Arquitectura del ADALINE
  • 14. GRACIAS POR SU ATENCION