SlideShare une entreprise Scribd logo
1  sur  26
Vasamento: Algoritmo EM
Manuel Ramón Vargas Avila
Introdução
Algoritmo EM definição:
Es un método general para encontrar el estimador de máxima
verosimilitud de los parámetros de una distribución de probabilidad. La
situación en la que el algoritmo EM muestra toda su potencia es en los
problemas de datos incompletos, donde la estimación de máxima
verosimilitud resulta difícil debido a la ausencia de alguna parte de los
datos dentro de una estructura de datos simple y familiar
Se utiliza en problemas de : clustering, reconocimiento de patrones,
Modelos ocultos de Markov, entre otros. aplicaciones en casi todos los
contextos estadísticos y en casi todos los campos donde se hayan
aplicado técnicas estadísticas: tratamiento de imágenes médicas,
corrección de censos, epidemiología del SIDA, y entrenamiento de
redes neuronales artificiales, entre otros.
• El algoritmo EM consta de dos pasos: paso-E y
paso-M. El paso-E consiste en generar datos
para conseguir un problema de datos
completos, usando el conjunto de datos
observados del problema de datos
incompletos y el valor actual de los
parámetros, de modo que el cálculo del paso-
M sea más simple al poderser aplicado a este
conjunto de datos completo y rectangular.
Derivação do algoritmo EM
Para isto se introduce se utiliza o
logaritmo da equação de verosimilianza
X vector aleatório de uma
família parametrizada.
Derivação do algoritmo EM
Derivação do algoritmo EM
• Se supone que el conocimiento de las
variables ocultas hara que la maximizacion de
la funcion sea mas facil.
• Z vector aleatorio oculto y elementos z, la
probabilidad total en terminos de z es:
• Equação 3
Derivação do algoritmo EM
• Equação 3 em 2: equação 4
• Desigualdad de jensens
Derivação do algoritmo EM
• Analogamente aplicando para equação 3
Derivação do algoritmo EM
Por conveniência
Interpretação de uma iteração do
algoritmo
Acotada por
Expectation
Maximixation
Processo
• Inicialização:
• Execução:
Etapa E:
Etapa M:
Iterar ate convergência (não garantia de máximo
global) o condição de terminação
Exemplo #1
Queremos classificar um grupo de
pessoas em dois grupos de alta ou
baixa
Para esto nos basamos en el modelo estadístico
De mezclas finitas.
Mezclas finitas
Para determinar
completamente este
modelo se deben
determinar los 5
parámetros
Media
Equa: 1
Varianza
Equa: 2
Probabilidade
Do Grupo A
Equa: 3
Função Normal
Xi= dado
Wai= Probabilidade que o
dado i pertence ao grupo
A
PG1 é sorteado aleatoriamente
INICIALIZAÇÃO
• Passo M:
Calculamos os 5 parametros com as equações 1,
2, 3 onde 1 e 2 podem ser aplicadas para o
grupo B.
Passo E
Se calcula para cada dado e grupo
Se normaliza
Condição de terminação
Iterar hasta que la diferencia de log
probabilidad global sea menor a 0,01
para 3 iteraciones sucesivas.
Resultado Final
Exemplo #2: Mistura de gaussianas
Suma ponderada de K gaussianas
Onde
Parâmetros a estimar
Exemplo #2: Mistura de gaussianas
Se X é um conjunto de n mostras I.I.D
Então
Dadas n mostras i.i.d
Tomadas de uma mistura
De gaussianas com
parâmetros:
Definimos a la probabilidad de que la i-ésima muestra pertenezca a la j-ésima gaussiana como
Satisfaze
probabilidad de que la i-ésima
muestra pertenezca a la j-ésima
gaussiana
• Considere uma mistura de gaussianas 2D com
parametros
Solução
Depois da terça iteração

Contenu connexe

Tendances

Microsoft Power Point Parte 1 Distribuciones De Frecuencia.Ppt [Compatibili...
Microsoft Power Point   Parte 1 Distribuciones De Frecuencia.Ppt [Compatibili...Microsoft Power Point   Parte 1 Distribuciones De Frecuencia.Ppt [Compatibili...
Microsoft Power Point Parte 1 Distribuciones De Frecuencia.Ppt [Compatibili...
Luis Baquero
 
5. probabilidad conjunta ejercicios resueltos
5. probabilidad conjunta   ejercicios resueltos5. probabilidad conjunta   ejercicios resueltos
5. probabilidad conjunta ejercicios resueltos
fabebust
 
Taller ecuaciones trigonometricas
Taller ecuaciones trigonometricasTaller ecuaciones trigonometricas
Taller ecuaciones trigonometricas
rjaimeramos
 
Gamma presentacion
Gamma presentacionGamma presentacion
Gamma presentacion
Kerll Eve
 

Tendances (20)

Resolviendo Ecuaciones Racionales
Resolviendo Ecuaciones RacionalesResolviendo Ecuaciones Racionales
Resolviendo Ecuaciones Racionales
 
Unidad 3
Unidad 3Unidad 3
Unidad 3
 
Distribuciones Discretas de Probabilidad
Distribuciones Discretas de ProbabilidadDistribuciones Discretas de Probabilidad
Distribuciones Discretas de Probabilidad
 
Microsoft Power Point Parte 1 Distribuciones De Frecuencia.Ppt [Compatibili...
Microsoft Power Point   Parte 1 Distribuciones De Frecuencia.Ppt [Compatibili...Microsoft Power Point   Parte 1 Distribuciones De Frecuencia.Ppt [Compatibili...
Microsoft Power Point Parte 1 Distribuciones De Frecuencia.Ppt [Compatibili...
 
Mic sesión 7
Mic sesión 7Mic sesión 7
Mic sesión 7
 
Psico j 6ta medidas de forma
Psico j  6ta medidas de formaPsico j  6ta medidas de forma
Psico j 6ta medidas de forma
 
The t Test for Two Independent Samples
The t Test for Two Independent SamplesThe t Test for Two Independent Samples
The t Test for Two Independent Samples
 
Variables Aleatorias
Variables AleatoriasVariables Aleatorias
Variables Aleatorias
 
Ecuaciones de primer grado
Ecuaciones de primer gradoEcuaciones de primer grado
Ecuaciones de primer grado
 
5. probabilidad conjunta ejercicios resueltos
5. probabilidad conjunta   ejercicios resueltos5. probabilidad conjunta   ejercicios resueltos
5. probabilidad conjunta ejercicios resueltos
 
Semana 2 1_
Semana 2 1_Semana 2 1_
Semana 2 1_
 
Distribución de probabilidad.ejemplos
Distribución de probabilidad.ejemplosDistribución de probabilidad.ejemplos
Distribución de probabilidad.ejemplos
 
Multiple Regression Analysis
Multiple Regression AnalysisMultiple Regression Analysis
Multiple Regression Analysis
 
Variables Aleatorias y Distribuciones de Probabilidad
Variables Aleatorias y Distribuciones de ProbabilidadVariables Aleatorias y Distribuciones de Probabilidad
Variables Aleatorias y Distribuciones de Probabilidad
 
Taller ecuaciones trigonometricas
Taller ecuaciones trigonometricasTaller ecuaciones trigonometricas
Taller ecuaciones trigonometricas
 
Clase4 Test de hipótesis en el modelo de regresión
Clase4 Test de hipótesis en el modelo de regresiónClase4 Test de hipótesis en el modelo de regresión
Clase4 Test de hipótesis en el modelo de regresión
 
Prueba de kolmogorov smirnow
Prueba de kolmogorov smirnowPrueba de kolmogorov smirnow
Prueba de kolmogorov smirnow
 
Gamma presentacion
Gamma presentacionGamma presentacion
Gamma presentacion
 
Estadística Descriptiva
Estadística DescriptivaEstadística Descriptiva
Estadística Descriptiva
 
Problemas variables aleatorias
Problemas variables aleatorias Problemas variables aleatorias
Problemas variables aleatorias
 

Similaire à Algoritmo EM

1.-TEORIA DE ERRORES.pdf
1.-TEORIA DE ERRORES.pdf1.-TEORIA DE ERRORES.pdf
1.-TEORIA DE ERRORES.pdf
PILFRUTFELIZ
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
Alvaro Gil
 
Proyecto grupal 2
Proyecto grupal 2Proyecto grupal 2
Proyecto grupal 2
briggitty
 
Analisis numerico unidad 1
Analisis numerico unidad 1Analisis numerico unidad 1
Analisis numerico unidad 1
Jhonathan Jaen
 

Similaire à Algoritmo EM (20)

Maxima verosimilitud
Maxima verosimilitudMaxima verosimilitud
Maxima verosimilitud
 
DIFERENCIACIÓN E INTEGRACIÓN ANÁLISIS NUMÉRICO
DIFERENCIACIÓN E INTEGRACIÓN ANÁLISIS NUMÉRICO DIFERENCIACIÓN E INTEGRACIÓN ANÁLISIS NUMÉRICO
DIFERENCIACIÓN E INTEGRACIÓN ANÁLISIS NUMÉRICO
 
1.-TEORIA DE ERRORES.pdf
1.-TEORIA DE ERRORES.pdf1.-TEORIA DE ERRORES.pdf
1.-TEORIA DE ERRORES.pdf
 
Terminos basicos
Terminos basicosTerminos basicos
Terminos basicos
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
 
Calculo numerico y manejo de errores (Resumen)
Calculo numerico y manejo de errores (Resumen)Calculo numerico y manejo de errores (Resumen)
Calculo numerico y manejo de errores (Resumen)
 
Normalidad uni y multivariante en r
Normalidad uni y multivariante en rNormalidad uni y multivariante en r
Normalidad uni y multivariante en r
 
1_Unidad_SolNum_SE_Lin.pptx
1_Unidad_SolNum_SE_Lin.pptx1_Unidad_SolNum_SE_Lin.pptx
1_Unidad_SolNum_SE_Lin.pptx
 
Analisis numerico, unidad i
Analisis numerico, unidad iAnalisis numerico, unidad i
Analisis numerico, unidad i
 
Metodos-Numericos_por tipos de cada opcion.pptx
Metodos-Numericos_por tipos de cada opcion.pptxMetodos-Numericos_por tipos de cada opcion.pptx
Metodos-Numericos_por tipos de cada opcion.pptx
 
Proyecto grupal 2
Proyecto grupal 2Proyecto grupal 2
Proyecto grupal 2
 
The fisher assumptions and how to check them
The fisher assumptions and how to check themThe fisher assumptions and how to check them
The fisher assumptions and how to check them
 
Analisis numerico
Analisis numericoAnalisis numerico
Analisis numerico
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)
 
Analisis numerico unidad 1
Analisis numerico unidad 1Analisis numerico unidad 1
Analisis numerico unidad 1
 
Ajuste red libre_ii
Ajuste red libre_iiAjuste red libre_ii
Ajuste red libre_ii
 
Medidas de Orden o Posición y Dispersión
Medidas de Orden o Posición y DispersiónMedidas de Orden o Posición y Dispersión
Medidas de Orden o Posición y Dispersión
 
Unidad 2 introducción a los algoritmos
Unidad 2 introducción a los algoritmosUnidad 2 introducción a los algoritmos
Unidad 2 introducción a los algoritmos
 
Calculo numerico
Calculo numericoCalculo numerico
Calculo numerico
 
Simulacion uam
Simulacion uamSimulacion uam
Simulacion uam
 

Algoritmo EM

  • 1. Vasamento: Algoritmo EM Manuel Ramón Vargas Avila
  • 2. Introdução Algoritmo EM definição: Es un método general para encontrar el estimador de máxima verosimilitud de los parámetros de una distribución de probabilidad. La situación en la que el algoritmo EM muestra toda su potencia es en los problemas de datos incompletos, donde la estimación de máxima verosimilitud resulta difícil debido a la ausencia de alguna parte de los datos dentro de una estructura de datos simple y familiar Se utiliza en problemas de : clustering, reconocimiento de patrones, Modelos ocultos de Markov, entre otros. aplicaciones en casi todos los contextos estadísticos y en casi todos los campos donde se hayan aplicado técnicas estadísticas: tratamiento de imágenes médicas, corrección de censos, epidemiología del SIDA, y entrenamiento de redes neuronales artificiales, entre otros.
  • 3. • El algoritmo EM consta de dos pasos: paso-E y paso-M. El paso-E consiste en generar datos para conseguir un problema de datos completos, usando el conjunto de datos observados del problema de datos incompletos y el valor actual de los parámetros, de modo que el cálculo del paso- M sea más simple al poderser aplicado a este conjunto de datos completo y rectangular.
  • 4. Derivação do algoritmo EM Para isto se introduce se utiliza o logaritmo da equação de verosimilianza X vector aleatório de uma família parametrizada.
  • 6. Derivação do algoritmo EM • Se supone que el conocimiento de las variables ocultas hara que la maximizacion de la funcion sea mas facil. • Z vector aleatorio oculto y elementos z, la probabilidad total en terminos de z es: • Equação 3
  • 7. Derivação do algoritmo EM • Equação 3 em 2: equação 4 • Desigualdad de jensens
  • 8. Derivação do algoritmo EM • Analogamente aplicando para equação 3
  • 9. Derivação do algoritmo EM Por conveniência
  • 10. Interpretação de uma iteração do algoritmo Acotada por
  • 12. Processo • Inicialização: • Execução: Etapa E: Etapa M: Iterar ate convergência (não garantia de máximo global) o condição de terminação
  • 13. Exemplo #1 Queremos classificar um grupo de pessoas em dois grupos de alta ou baixa Para esto nos basamos en el modelo estadístico De mezclas finitas.
  • 14. Mezclas finitas Para determinar completamente este modelo se deben determinar los 5 parámetros
  • 15. Media Equa: 1 Varianza Equa: 2 Probabilidade Do Grupo A Equa: 3 Função Normal Xi= dado Wai= Probabilidade que o dado i pertence ao grupo A
  • 16. PG1 é sorteado aleatoriamente INICIALIZAÇÃO
  • 17. • Passo M: Calculamos os 5 parametros com as equações 1, 2, 3 onde 1 e 2 podem ser aplicadas para o grupo B.
  • 18. Passo E Se calcula para cada dado e grupo Se normaliza
  • 19. Condição de terminação Iterar hasta que la diferencia de log probabilidad global sea menor a 0,01 para 3 iteraciones sucesivas.
  • 21. Exemplo #2: Mistura de gaussianas Suma ponderada de K gaussianas Onde Parâmetros a estimar
  • 22. Exemplo #2: Mistura de gaussianas Se X é um conjunto de n mostras I.I.D Então
  • 23. Dadas n mostras i.i.d Tomadas de uma mistura De gaussianas com parâmetros: Definimos a la probabilidad de que la i-ésima muestra pertenezca a la j-ésima gaussiana como Satisfaze
  • 24. probabilidad de que la i-ésima muestra pertenezca a la j-ésima gaussiana
  • 25. • Considere uma mistura de gaussianas 2D com parametros