SlideShare une entreprise Scribd logo
1  sur  19
Télécharger pour lire hors ligne
Sistemas Inteligentes
 y Redes Neuronales
       (SI01)
      Sesión 7
  Adaline y Perceptron


  Ing. José C. Benítez P.
Sesión 7. Temas


       Algoritmos
         Adaline
              Características.
              Regla de Aprendizaje (LMS). Regla Delta.
              Aplicaciones.
              Madaline.
          Regla del Perceptron




          Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   2
Adaline

          Características.
          Regla de Aprendizaje (LMS). Regla Delta.
          Aplicaciones.
               o Clasificación de vectores.
               o Tratamiento de Señales.
          Madaline.




             Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   3
Adaline Caracteristicas


    • Es un tipo de aprendizaje OFF Line.
    • Se enmarca dentro del tipo de aprendizaje por
      corrección de error.
    • Se utiliza para entrenar un Elemento Simple de
      Procesado, con una función de transferencia lineal.
    • Se le conoce también con el nombre de Regla de
      Widrow-Hoff.
    • Se pueden combinar un cierto nº de PEs en la capa
      de salida (estructura con un cierto grado de
      complejidad). La regla se aplica sobre cada uno de
      los PE de manera individual.



            Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   4
Adaline




   Es aplicada a estructuras Lineales:
Idea:
Modificación de Pesos para tratar de reducir la diferencia entre
la salida deseada y la actual (para cada patrón).
   Se denomina LMS (Least mean squares): minimiza el Error
   Cuadrático Medio sobre todos los patrones de entrenamiento.

              Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   5
Adaline
 Cálculo de Pesos Óptimos
 Sea el conjunto de entrenamiento:
         (X,D): patrones de entrada y salidas deseadas.
         X ---- conjunto de L vectores de dimensión n.
         D ---- conjunto de L vectores de dimensión m (en este caso m=1). Salida Deseada.
         Y ---- conjunto de L vectores de dimensión m ( en este caso m=1). Salida Obtenida
 Se trata de minimizar: Sea Yk la salida obtenida para el patrón k.




                   Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   6
Adaline




          Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   7
Adaline




          Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   8
Adaline

   Cálculo de W*: Método de Gradiente Descendente.
   Diferentes Métodos:
      Buscar por todo el espacio de pesos hasta
      encontrar los que hiciesen el error mínimo.
      Realizar una búsqueda aleatoria.
      Realizar una búsqueda Dirigida.
   Método:
      Se inicializan los pesos aleatoriamente (pto. de
      partida).
      Se determina, la dirección de la pendiente más
      pronunciada en dirección hacia abajo.
      Se modifican los pesos para encontrarnos un poco
      más abajo en la superficie.


            Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   9
Adaline




          Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   10
Adaline




          Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   11
Adaline

  Algoritmo:
  1. Inicialización de pesos.
  2. Se aplica un patrón de entrada (entradas y salida
     deseada).
  3. Se computa la salida lineal que se obtiene de la red.
  4. Se calcula el error cometido para dicho patrón.
  5. Se actualizan las conexiones mediante la ecuación
     obtenida anteriormente.
  6. Se repiten los pasos del 2 al 5 para todos los patrones
     de entrenamiento.
  7. Si el error cuadrático medio es un valor reducido
     aceptable, termina el proceso. Sino se vuelve al paso 2.


            Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   12
Adaline

  Aplicaciones:
    La principal aplicación de las redes tipo Adaline se
    encuentra en el campo de procesamiento de señales.
    Concretamente en el diseño de filtros capaces de eliminar
    ruido en señales portadoras de información.
    Otra aplicación es la de los filtros adaptativos: Predecir el
    valor futuro de una señal a partir de su valor actual.




              Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   13
Adaline

  CONCLUSIONES
    Una simple capa de PE lineales pueden realizar
    aproximaciones a funciones lineales o asociación de
    patrones.
    Una simple capa de PE lineales puede ser entrenada
    con algoritmo LMS.
    Relaciones No Lineales entre entradas y salidas no
    pueden ser representadas exactamente por redes
    lineales. Dichas redes harán aproximaciones lineales.
    Otro tipo de redes abordarán la resolución de
    problemas no lineales.




             Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   14
Regla del Perceptron (Rosenblatt)

    Supongamos un PE con una función de transferencia
    del tipo Hardlimiter y en donde las entradas son
    binarias o bipolares (mismo que Adaline pero con
    esas restricciones).
    La regla que rige el cambio de pesos es:
        Wi(t+1) = Wi(t)         Si la salida es correcta.
        Wi(t+1) = Wi(t) + Xi(t)            Si la salida = -1 y debería de ser 1.
        Wi(t+1) = Wi(t) - Xi(t)            Si la salida = 1 y debería de ser -1.
    Sobre la regla anterior se han realizado diferentes
    modificaciones:




                Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   15
Regla del Perceptron (Rosenblatt)
   A)
        Wi(t+1) = Wi(t) Si la salida es correcta.
        Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1.
        Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1.
    Con [0,1], término de control de ganancia y velocidad
    de aprendizaje.
   B) Otra de las modificaciones propuestas fue sugerida
   por Widrow and Hoff. Ellos propusieron una regla basada
   en la regla Delta. (Es la más utilizada).


    Tomando las entradas y salidas como bipolares tenemos
    que el cambio en los pesos se produce de la manera
    siguiente:

                Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   16
Regla del Perceptron (Rosenblatt)




         Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   17
Regla del Perceptron (Rosenblatt)




         Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   18
Sesión 7

           Sistemas Inteligentes y Redes Neuronales




             Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P.   19

Contenu connexe

Tendances

REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBBREDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBBESCOM
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de AprendizajeESCOM
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de HammingESCOM
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjhymermartinez
 
Funciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabFunciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabGabyta Rodríguez
 
RED NERONAL ADALINE
RED NERONAL ADALINERED NERONAL ADALINE
RED NERONAL ADALINEESCOM
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje AsociativoESCOM
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINRossy Faican Cango
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
 
Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinDiego Guamán
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radialJefferson Guillen
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVAESCOM
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 

Tendances (20)

REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBBREDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Funciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabFunciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en Matlab
 
RED NERONAL ADALINE
RED NERONAL ADALINERED NERONAL ADALINE
RED NERONAL ADALINE
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELIN
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y Purelin
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radial
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVA
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 

En vedette

Uni fiee rdsi practica sesion 1,2,3 dispositivos y medios de rt
Uni fiee rdsi practica sesion 1,2,3 dispositivos y medios de rtUni fiee rdsi practica sesion 1,2,3 dispositivos y medios de rt
Uni fiee rdsi practica sesion 1,2,3 dispositivos y medios de rtjcbenitezp
 
Uni fiee rdsi sesion 00 intro curso
Uni fiee rdsi sesion 00 intro cursoUni fiee rdsi sesion 00 intro curso
Uni fiee rdsi sesion 00 intro cursoc09271
 
Uni fiee rdsi sesion 03 intro rdsi
Uni fiee rdsi sesion 03 intro rdsiUni fiee rdsi sesion 03 intro rdsi
Uni fiee rdsi sesion 03 intro rdsijcbenitezp
 
Utp sirn_s8_algoritmo backpropagation
 Utp sirn_s8_algoritmo backpropagation Utp sirn_s8_algoritmo backpropagation
Utp sirn_s8_algoritmo backpropagationjcbenitezp
 
Utp sirn_sl8 sistemas difusos i 2013-3
 Utp sirn_sl8 sistemas difusos i 2013-3 Utp sirn_sl8 sistemas difusos i 2013-3
Utp sirn_sl8 sistemas difusos i 2013-3jcbenitezp
 
Uni fiee rdsi sesion 01 fund telecomunicaciones
Uni fiee rdsi sesion 01 fund telecomunicacionesUni fiee rdsi sesion 01 fund telecomunicaciones
Uni fiee rdsi sesion 01 fund telecomunicacionesc09271
 
Uni rdsi 2016 1 sesion 12 redes moviles 3 g
Uni rdsi 2016 1 sesion 12 redes moviles 3 gUni rdsi 2016 1 sesion 12 redes moviles 3 g
Uni rdsi 2016 1 sesion 12 redes moviles 3 gjcbenitezp
 
Uni rdsi 2016 1 sesion 13-14 redes moviles 4 g
Uni rdsi 2016 1 sesion 13-14 redes moviles 4 gUni rdsi 2016 1 sesion 13-14 redes moviles 4 g
Uni rdsi 2016 1 sesion 13-14 redes moviles 4 gjcbenitezp
 
Uni fiee rdsi sesion 10a mpls intro
Uni fiee rdsi sesion 10a mpls introUni fiee rdsi sesion 10a mpls intro
Uni fiee rdsi sesion 10a mpls introjcbenitezp
 

En vedette (9)

Uni fiee rdsi practica sesion 1,2,3 dispositivos y medios de rt
Uni fiee rdsi practica sesion 1,2,3 dispositivos y medios de rtUni fiee rdsi practica sesion 1,2,3 dispositivos y medios de rt
Uni fiee rdsi practica sesion 1,2,3 dispositivos y medios de rt
 
Uni fiee rdsi sesion 00 intro curso
Uni fiee rdsi sesion 00 intro cursoUni fiee rdsi sesion 00 intro curso
Uni fiee rdsi sesion 00 intro curso
 
Uni fiee rdsi sesion 03 intro rdsi
Uni fiee rdsi sesion 03 intro rdsiUni fiee rdsi sesion 03 intro rdsi
Uni fiee rdsi sesion 03 intro rdsi
 
Utp sirn_s8_algoritmo backpropagation
 Utp sirn_s8_algoritmo backpropagation Utp sirn_s8_algoritmo backpropagation
Utp sirn_s8_algoritmo backpropagation
 
Utp sirn_sl8 sistemas difusos i 2013-3
 Utp sirn_sl8 sistemas difusos i 2013-3 Utp sirn_sl8 sistemas difusos i 2013-3
Utp sirn_sl8 sistemas difusos i 2013-3
 
Uni fiee rdsi sesion 01 fund telecomunicaciones
Uni fiee rdsi sesion 01 fund telecomunicacionesUni fiee rdsi sesion 01 fund telecomunicaciones
Uni fiee rdsi sesion 01 fund telecomunicaciones
 
Uni rdsi 2016 1 sesion 12 redes moviles 3 g
Uni rdsi 2016 1 sesion 12 redes moviles 3 gUni rdsi 2016 1 sesion 12 redes moviles 3 g
Uni rdsi 2016 1 sesion 12 redes moviles 3 g
 
Uni rdsi 2016 1 sesion 13-14 redes moviles 4 g
Uni rdsi 2016 1 sesion 13-14 redes moviles 4 gUni rdsi 2016 1 sesion 13-14 redes moviles 4 g
Uni rdsi 2016 1 sesion 13-14 redes moviles 4 g
 
Uni fiee rdsi sesion 10a mpls intro
Uni fiee rdsi sesion 10a mpls introUni fiee rdsi sesion 10a mpls intro
Uni fiee rdsi sesion 10a mpls intro
 

Similaire à Utp sirn_s7_adaline y perceptron

Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adalinec09271
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagationjcbp_peru
 
Utp sirn_sl1 funciones de rna 2012-2
 Utp sirn_sl1 funciones de rna 2012-2 Utp sirn_sl1 funciones de rna 2012-2
Utp sirn_sl1 funciones de rna 2012-2jcbenitezp
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y AdalineSpacetoshare
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTESCOM
 
Utp sirn sl4 la rna perceptron 2012-2
Utp sirn sl4 la rna perceptron 2012-2Utp sirn sl4 la rna perceptron 2012-2
Utp sirn sl4 la rna perceptron 2012-2jcbenitezp
 
Utp sirn_sl2 la rna perceptron
 Utp sirn_sl2 la rna perceptron Utp sirn_sl2 la rna perceptron
Utp sirn_sl2 la rna perceptronjcbenitezp
 
Utp sirn_sl4 la rna percetron 2012-2
 Utp sirn_sl4 la rna percetron 2012-2 Utp sirn_sl4 la rna percetron 2012-2
Utp sirn_sl4 la rna percetron 2012-2c09271
 
Utp ia_2014-2_s5_adaline
 Utp ia_2014-2_s5_adaline Utp ia_2014-2_s5_adaline
Utp ia_2014-2_s5_adalinejcbp_peru
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
 
Utp sirn_cap4_5_red perceptron
 Utp sirn_cap4_5_red perceptron Utp sirn_cap4_5_red perceptron
Utp sirn_cap4_5_red perceptronjcbenitezp
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONESCOM
 
Utp sirn l1_funciones 2013-3
Utp sirn l1_funciones 2013-3Utp sirn l1_funciones 2013-3
Utp sirn l1_funciones 2013-3jcbenitezp
 
Utp sirn l1_funciones 2013-3
Utp sirn l1_funciones 2013-3Utp sirn l1_funciones 2013-3
Utp sirn l1_funciones 2013-3jcbenitezp
 
Utp sirn_sl7 conjuntos difusos i 2012-2
 Utp sirn_sl7 conjuntos difusos i 2012-2 Utp sirn_sl7 conjuntos difusos i 2012-2
Utp sirn_sl7 conjuntos difusos i 2012-2jcbenitezp
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificialesSpacetoshare
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 

Similaire à Utp sirn_s7_adaline y perceptron (20)

Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adaline
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
Utp sirn_sl1 funciones de rna 2012-2
 Utp sirn_sl1 funciones de rna 2012-2 Utp sirn_sl1 funciones de rna 2012-2
Utp sirn_sl1 funciones de rna 2012-2
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y Adaline
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
Utp sirn sl4 la rna perceptron 2012-2
Utp sirn sl4 la rna perceptron 2012-2Utp sirn sl4 la rna perceptron 2012-2
Utp sirn sl4 la rna perceptron 2012-2
 
Utp sirn_sl2 la rna perceptron
 Utp sirn_sl2 la rna perceptron Utp sirn_sl2 la rna perceptron
Utp sirn_sl2 la rna perceptron
 
Utp sirn_sl4 la rna percetron 2012-2
 Utp sirn_sl4 la rna percetron 2012-2 Utp sirn_sl4 la rna percetron 2012-2
Utp sirn_sl4 la rna percetron 2012-2
 
Utp ia_2014-2_s5_adaline
 Utp ia_2014-2_s5_adaline Utp ia_2014-2_s5_adaline
Utp ia_2014-2_s5_adaline
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Utp sirn_cap4_5_red perceptron
 Utp sirn_cap4_5_red perceptron Utp sirn_cap4_5_red perceptron
Utp sirn_cap4_5_red perceptron
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
 
Utp sirn l1_funciones 2013-3
Utp sirn l1_funciones 2013-3Utp sirn l1_funciones 2013-3
Utp sirn l1_funciones 2013-3
 
Utp sirn l1_funciones 2013-3
Utp sirn l1_funciones 2013-3Utp sirn l1_funciones 2013-3
Utp sirn l1_funciones 2013-3
 
Utp sirn_sl7 conjuntos difusos i 2012-2
 Utp sirn_sl7 conjuntos difusos i 2012-2 Utp sirn_sl7 conjuntos difusos i 2012-2
Utp sirn_sl7 conjuntos difusos i 2012-2
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 

Plus de jcbenitezp

Cap4 jc benitez
Cap4 jc benitezCap4 jc benitez
Cap4 jc benitezjcbenitezp
 
Tarea 1 tesis i filosofia y conocimiento
Tarea 1 tesis i filosofia y conocimientoTarea 1 tesis i filosofia y conocimiento
Tarea 1 tesis i filosofia y conocimientojcbenitezp
 
It526 2017 2 ep
It526 2017 2 epIt526 2017 2 ep
It526 2017 2 epjcbenitezp
 
It526 2015 2 pc3
It526 2015 2 pc3 It526 2015 2 pc3
It526 2015 2 pc3 jcbenitezp
 
Calendario academico 2015 02 g
Calendario academico 2015   02 gCalendario academico 2015   02 g
Calendario academico 2015 02 gjcbenitezp
 
Db vsa-011 registro de asistencia docente ago2015
Db vsa-011 registro de asistencia docente  ago2015Db vsa-011 registro de asistencia docente  ago2015
Db vsa-011 registro de asistencia docente ago2015jcbenitezp
 
Utp 2015-2_pdi_lab3
 Utp 2015-2_pdi_lab3 Utp 2015-2_pdi_lab3
Utp 2015-2_pdi_lab3jcbenitezp
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3jcbenitezp
 
Pdi paterno m_lab2c
Pdi paterno m_lab2cPdi paterno m_lab2c
Pdi paterno m_lab2cjcbenitezp
 
Utp 2015-2_sirn_s7_r_competitivas
 Utp 2015-2_sirn_s7_r_competitivas Utp 2015-2_sirn_s7_r_competitivas
Utp 2015-2_sirn_s7_r_competitivasjcbenitezp
 
Utp 2015-2_sirn_s7_r_competitivas
 Utp 2015-2_sirn_s7_r_competitivas Utp 2015-2_sirn_s7_r_competitivas
Utp 2015-2_sirn_s7_r_competitivasjcbenitezp
 
Utp ia_s1_introduccion ia
 Utp ia_s1_introduccion ia Utp ia_s1_introduccion ia
Utp ia_s1_introduccion iajcbenitezp
 
Utp sirn_s1_introduccion ia 2014-2
 Utp sirn_s1_introduccion ia 2014-2 Utp sirn_s1_introduccion ia 2014-2
Utp sirn_s1_introduccion ia 2014-2jcbenitezp
 
Utp sirn_s1_introduccion ia 2014-2
 Utp sirn_s1_introduccion ia 2014-2 Utp sirn_s1_introduccion ia 2014-2
Utp sirn_s1_introduccion ia 2014-2jcbenitezp
 
Utp sirn_2014-1 lab1
 Utp sirn_2014-1 lab1 Utp sirn_2014-1 lab1
Utp sirn_2014-1 lab1jcbenitezp
 
Utp sirn_s1_introduccion ia 2014-2
 Utp sirn_s1_introduccion ia 2014-2 Utp sirn_s1_introduccion ia 2014-2
Utp sirn_s1_introduccion ia 2014-2jcbenitezp
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificialjcbenitezp
 
W0 i9 inteligenciaartificial
W0 i9 inteligenciaartificialW0 i9 inteligenciaartificial
W0 i9 inteligenciaartificialjcbenitezp
 
Wi0 a sistemasinteligentesyredesneuronales
Wi0 a sistemasinteligentesyredesneuronalesWi0 a sistemasinteligentesyredesneuronales
Wi0 a sistemasinteligentesyredesneuronalesjcbenitezp
 

Plus de jcbenitezp (20)

Cap4 jc benitez
Cap4 jc benitezCap4 jc benitez
Cap4 jc benitez
 
Tarea 1 tesis i filosofia y conocimiento
Tarea 1 tesis i filosofia y conocimientoTarea 1 tesis i filosofia y conocimiento
Tarea 1 tesis i filosofia y conocimiento
 
It526 2017 2 ep
It526 2017 2 epIt526 2017 2 ep
It526 2017 2 ep
 
It526 2015 2 pc3
It526 2015 2 pc3 It526 2015 2 pc3
It526 2015 2 pc3
 
Calendario academico 2015 02 g
Calendario academico 2015   02 gCalendario academico 2015   02 g
Calendario academico 2015 02 g
 
Db vsa-011 registro de asistencia docente ago2015
Db vsa-011 registro de asistencia docente  ago2015Db vsa-011 registro de asistencia docente  ago2015
Db vsa-011 registro de asistencia docente ago2015
 
Utp 2015-2_pdi_lab3
 Utp 2015-2_pdi_lab3 Utp 2015-2_pdi_lab3
Utp 2015-2_pdi_lab3
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3
 
Pdi paterno m_lab2c
Pdi paterno m_lab2cPdi paterno m_lab2c
Pdi paterno m_lab2c
 
Utp 2015-2_sirn_s7_r_competitivas
 Utp 2015-2_sirn_s7_r_competitivas Utp 2015-2_sirn_s7_r_competitivas
Utp 2015-2_sirn_s7_r_competitivas
 
Utp 2015-2_sirn_s7_r_competitivas
 Utp 2015-2_sirn_s7_r_competitivas Utp 2015-2_sirn_s7_r_competitivas
Utp 2015-2_sirn_s7_r_competitivas
 
Utp ia_s1_introduccion ia
 Utp ia_s1_introduccion ia Utp ia_s1_introduccion ia
Utp ia_s1_introduccion ia
 
Utp sirn_s1_introduccion ia 2014-2
 Utp sirn_s1_introduccion ia 2014-2 Utp sirn_s1_introduccion ia 2014-2
Utp sirn_s1_introduccion ia 2014-2
 
Utp sirn_s1_introduccion ia 2014-2
 Utp sirn_s1_introduccion ia 2014-2 Utp sirn_s1_introduccion ia 2014-2
Utp sirn_s1_introduccion ia 2014-2
 
Utp sirn_2014-1 lab1
 Utp sirn_2014-1 lab1 Utp sirn_2014-1 lab1
Utp sirn_2014-1 lab1
 
Utp sirn_s1_introduccion ia 2014-2
 Utp sirn_s1_introduccion ia 2014-2 Utp sirn_s1_introduccion ia 2014-2
Utp sirn_s1_introduccion ia 2014-2
 
Inteligencia artificial
Inteligencia artificialInteligencia artificial
Inteligencia artificial
 
W0 i9 inteligenciaartificial
W0 i9 inteligenciaartificialW0 i9 inteligenciaartificial
W0 i9 inteligenciaartificial
 
Wi0 a sistemasinteligentesyredesneuronales
Wi0 a sistemasinteligentesyredesneuronalesWi0 a sistemasinteligentesyredesneuronales
Wi0 a sistemasinteligentesyredesneuronales
 
4 g
4 g4 g
4 g
 

Utp sirn_s7_adaline y perceptron

  • 1. Sistemas Inteligentes y Redes Neuronales (SI01) Sesión 7 Adaline y Perceptron Ing. José C. Benítez P.
  • 2. Sesión 7. Temas Algoritmos Adaline Características. Regla de Aprendizaje (LMS). Regla Delta. Aplicaciones. Madaline. Regla del Perceptron Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 2
  • 3. Adaline Características. Regla de Aprendizaje (LMS). Regla Delta. Aplicaciones. o Clasificación de vectores. o Tratamiento de Señales. Madaline. Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 3
  • 4. Adaline Caracteristicas • Es un tipo de aprendizaje OFF Line. • Se enmarca dentro del tipo de aprendizaje por corrección de error. • Se utiliza para entrenar un Elemento Simple de Procesado, con una función de transferencia lineal. • Se le conoce también con el nombre de Regla de Widrow-Hoff. • Se pueden combinar un cierto nº de PEs en la capa de salida (estructura con un cierto grado de complejidad). La regla se aplica sobre cada uno de los PE de manera individual. Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 4
  • 5. Adaline Es aplicada a estructuras Lineales: Idea: Modificación de Pesos para tratar de reducir la diferencia entre la salida deseada y la actual (para cada patrón). Se denomina LMS (Least mean squares): minimiza el Error Cuadrático Medio sobre todos los patrones de entrenamiento. Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 5
  • 6. Adaline Cálculo de Pesos Óptimos Sea el conjunto de entrenamiento: (X,D): patrones de entrada y salidas deseadas. X ---- conjunto de L vectores de dimensión n. D ---- conjunto de L vectores de dimensión m (en este caso m=1). Salida Deseada. Y ---- conjunto de L vectores de dimensión m ( en este caso m=1). Salida Obtenida Se trata de minimizar: Sea Yk la salida obtenida para el patrón k. Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 6
  • 7. Adaline Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 7
  • 8. Adaline Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 8
  • 9. Adaline Cálculo de W*: Método de Gradiente Descendente. Diferentes Métodos: Buscar por todo el espacio de pesos hasta encontrar los que hiciesen el error mínimo. Realizar una búsqueda aleatoria. Realizar una búsqueda Dirigida. Método: Se inicializan los pesos aleatoriamente (pto. de partida). Se determina, la dirección de la pendiente más pronunciada en dirección hacia abajo. Se modifican los pesos para encontrarnos un poco más abajo en la superficie. Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 9
  • 10. Adaline Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 10
  • 11. Adaline Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 11
  • 12. Adaline Algoritmo: 1. Inicialización de pesos. 2. Se aplica un patrón de entrada (entradas y salida deseada). 3. Se computa la salida lineal que se obtiene de la red. 4. Se calcula el error cometido para dicho patrón. 5. Se actualizan las conexiones mediante la ecuación obtenida anteriormente. 6. Se repiten los pasos del 2 al 5 para todos los patrones de entrenamiento. 7. Si el error cuadrático medio es un valor reducido aceptable, termina el proceso. Sino se vuelve al paso 2. Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 12
  • 13. Adaline Aplicaciones: La principal aplicación de las redes tipo Adaline se encuentra en el campo de procesamiento de señales. Concretamente en el diseño de filtros capaces de eliminar ruido en señales portadoras de información. Otra aplicación es la de los filtros adaptativos: Predecir el valor futuro de una señal a partir de su valor actual. Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 13
  • 14. Adaline CONCLUSIONES Una simple capa de PE lineales pueden realizar aproximaciones a funciones lineales o asociación de patrones. Una simple capa de PE lineales puede ser entrenada con algoritmo LMS. Relaciones No Lineales entre entradas y salidas no pueden ser representadas exactamente por redes lineales. Dichas redes harán aproximaciones lineales. Otro tipo de redes abordarán la resolución de problemas no lineales. Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 14
  • 15. Regla del Perceptron (Rosenblatt) Supongamos un PE con una función de transferencia del tipo Hardlimiter y en donde las entradas son binarias o bipolares (mismo que Adaline pero con esas restricciones). La regla que rige el cambio de pesos es: Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1. Sobre la regla anterior se han realizado diferentes modificaciones: Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 15
  • 16. Regla del Perceptron (Rosenblatt) A) Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1. Con [0,1], término de control de ganancia y velocidad de aprendizaje. B) Otra de las modificaciones propuestas fue sugerida por Widrow and Hoff. Ellos propusieron una regla basada en la regla Delta. (Es la más utilizada). Tomando las entradas y salidas como bipolares tenemos que el cambio en los pesos se produce de la manera siguiente: Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 16
  • 17. Regla del Perceptron (Rosenblatt) Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 17
  • 18. Regla del Perceptron (Rosenblatt) Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 18
  • 19. Sesión 7 Sistemas Inteligentes y Redes Neuronales Sistemas Inteligentes y Redes Neuronales - Prof. Ing. Jose C. Benitez P. 19