SlideShare une entreprise Scribd logo
1  sur  42
Télécharger pour lire hors ligne
Incerteza, Cap 13 
Ronaldo F. Ramos, Dr. 
ronaldo@cefet-ce.br 
Adaptado de : aima.cs.berkeley.edu
Roteiro 
! Incerteza 
! Probabilidade 
! Sintaxe e Semântica 
! Inferência 
! Independência e regra de Bayes
Incerteza 
Seja a ação At = seguir para o aeroporto chegando t minutos antes do vôo 
Esta ação At nos deixará pontualmente? 
Problemas: 
1. observalidade parcial (estado da rodovia, planos de outros motoristas, etc.) 
2. sensores de ruído (relatórios com situação do tráfego) 
3. incerteza nos resultados das ações (pneu furado, etc.) 
4. complexidade excessiva da modelagem e previsão do tráfego. 
Consequentemente uma abordagem puramente lógica poderia: 
1. correr risco de falsa afirmativa: “A25 me deixará à tempo no aeroporto”, ou 
2. levará a conclusões muitos fracas para tomada de decisões: 
“A25 me deixará lá a tempo se não houver acidentes na ponte, se não chover e 
meus pneus permanecerem intactos etc etc.” 
(A1440 pode ser dito razoavelmente que chegarei a tempo, mas eu teria que 
permanecer a noite toda no aeroporto …)
Métodos para tratamento da Incerteza 
! Logica Default ou não monotônica: 
! Assumir que meu carro não terá um pneu furado 
! Assumir que A25 funcionará a não ser que seja contradita pela 
evidência 
! Questões: Que suposições são razoáveis? Como tratar 
contradições? 
! Regras com graus fictícios: 
! A25 |→0.3 chegar a tempo 
! Irrigador |→ 0.99 GramaMolhada 
! GramaMolhada |→ 0.7 Chuva 
! Questões: Problemas com combinações, ex., Irrigador causa 
chuva?? 
! Probabilidade 
! Modela o grau de crença do agente 
! Dada uma evidência disponível, 
! A25 me deixará a tempo com probabilidade 0.04
Probabilidade 
Assertivas probabilisticas sumarizam os efeitos de : 
! Preguiça: falha em enumerar exceções, qualificações, etc. 
! Ignorância: falta de fatos relevantes, condições iniciais, etc. 
Probabilidade Subjetiva: 
! Probabilidades relatam proposições sobre o estado 
de conhecimento do agente 
! ex. P(A25 | não houve acidentes) = 0.06 
Isto não são afirmações sobre o mundo. 
Probabilidades de proposições podem mudar de acordo 
com novas evidências: 
ex., P(A25 | não houve acidentes as 5h)= 0.15
Tomando decisões em face da incerteza 
Suponha que acreditemos que: 
P(A25 me deixará a tempo| …) = 0.04 
P(A90 me deixará a tempo|…) = 0.70 
P(A120 me deixará a tempo| …) = 0.95 
P(A1440 me deixará a tempo| …) = 0.9999 
! Que ação devo escolher? 
Dependerá de minhas preferências por vôos não 
disponíveis vc tempo gasto esperando, etc. 
! Teoria da Utilidade é usada para representar e inferir 
preferências 
! Teoria da Decisão = Teoria da Probabilidade + Teoria da 
Utilidade
Sintaxe 
! Elemento Básico: variável aleatória 
! Semelhante a logica proposicional: mundos possíveis definidos pela 
atribuição de valores a variáveis aleatórias. 
! Variables aleatórias booleanas 
ex., Cárie (tenho cárie?) 
! Variáveis aleatórias discretas 
ex., Tempo pode ser: <ensolarado,chovendo,nublado,nevando> 
! Valores de domínios devem ser exautivos e mutuamente exclusivos 
! Proposição elementar construída pela atribuição de um valor a A 
! Proposições complexas formadas a partir de proposições elementares 
e conectivos lógicos padrões. ex. Tempo = ensolarado ∨ Cárie = falso 
variável aleatória: ex., Tempo = ensolarado, Cárie = falso 
(abreviado como cárie)
Sintaxe 
! Evento Atômico: Uma especificação completa 
do estado do mundo sobre o qual o agente é 
incerto 
! Ex. Se o mundo consiste de apenas duas variáveis 
aleatórias booleanas Cárie e DorDeDente, então 
existem 4 possíveis eventos atômicos: 
Cárie = falso ∧ DorDeDente = falso 
Cárie = falso ∧ DorDeDente = verdade 
Cárie = verdade ∧ DorDeDente = falso 
Cárie = verdade ∧ DorDeDente = verdade 
! Eventos atômicos são mutualmente 
exclusivos e exaustivos
Axiomas da Probabilidade 
! Para quaisquer proposições A, B 
! 0 ≤ P(A) ≤ 1 
! P(verdade) = 1 e P(falso) = 0 
! P(A ∨ B) = P(A) + P(B) - P(A ∧ B)
Probabilidade a Priori 
! Probabilidade a priori ou probabilidade incondicional de proposições 
ex., P(Cárie = verdade) = 0.1 e P(Tempo = ensolarado) = 0.72 corresponde a 
uma crença inicial antes da chegada de qualquer evidência nova. 
! Distribuição de Probabilidade dá valores para todas possíveis 
atribuições: 
P(Tempo) = <0.72,0.1,0.08,0.1> (normalizado, i.e., soma é 1) 
! Distribuição de probabilidade conjunta para um conjunto de variáveis 
aleatórias dá a probabilidade de todos os eventos sobre estas variáveis 
! Ex. 
P(Tempo,Cárie) = uma matriz 4 × 2 de valores: 
Tempo = sol chuva nuvens neve 
Cárie = verdade 0.144 0.02 0.016 0.02 
Cárie = falso 0.576 0.08 0.064 0.08 
! Toda questão a cerca do domínio pode ser respondida pela 
distribuição de probabilidade conjunta
Probabilidade Condicional 
! Probabilidade Condicional ou posterior 
! ex.P(cárie | dordedente) = 0.8 
i.e., dado que dordedente é tudo o que sei. 
! Se sabemos mais, ex. que cárie é dada. Então temos: 
P(cárie | dordedente,cárie) = 1 
! Novas evidências podem ser irrelevantes, permitindo a 
simplificação, ex., 
P(cárie| dordedente, ensolarado) = P(cárie| dordedente) = 0.8 
! Este tipo de inferência, sancionada pelo conhecimento do 
domínio é crucial
Probabilidade Condicional 
! Definição. 
P(a | b) = P(a ∧ b) / P(b) se P(b) > 0 
! A regra do produto dá uma formulação alternativa: 
P(a ∧ b) = P(a | b) P(b) = P(b | a) P(a) 
! Uma versão geral serve para distribuições inteiras. Ex., 
P(Tempo,Cárie) = P(Tempo | Cárie) P(Cárie) 
! (Visto como um conjunto de 4 × 2 equações, não é 
multiplicação de matrizes) 
! Regra da Cadeia é derivada por sucessivas aplicações da regra 
do produto: 
P(X1, …,Xn) = P(X1,...,Xn-1) P(Xn | X1,...,Xn-1) 
= P(X1,...,Xn-2) P(Xn-1 | X1,...,Xn-2) P(Xn | X1,...,Xn-1) 
= … 
= πi=n 1 
P(Xi | X1, … ,Xi-1)
Inferência por enumeração 
! Começa com a distribuição de probabilidade 
conjunta: 
DordeDente ~DordeDente 
Boticão ~Boticão Boticão ~Boticão 
0,108 0,012 0,072 0,008 
0,016 0,064 0,144 0,576 
Cárie 
~Cárie 
! Para qualquer proposição soma-se o eventos 
atômicos onde a mesma é verdade. 
P(carie=verdade)=0,108+0,012+0,072+0,008=0,2 
(Chamada de probabilidade marginal) 
Podemos também calcular 
P(carie v dordedente) = 
0,108+0,012+0,072+0,008+0,016+0,064=0,28. 
etc.
Inferência por enumeração 
! Iniciar com a distribuição conjunta: 
! Pode calcular também as probabilidades 
condicionais: 
P(¬cárie | dordedente) = P(¬cárie ∧ dordedente) 
P(dordedente) 
= 0.016+0.064 
0.108 + 0.012 + 0.016 + 0.064 
= 0.4
Normalização 
! Denominador pode ser visto como uma constante de 
normalização 
P(Cárie | DorDeDente) = α P(Cárie,DorDeDente) 
= α [P(Cárie,DorDeDente,Boticão) + P(Cárie,DorDeDente,¬ 
Boticao)] 
= α [<0.108,0.016> + <0.012,0.064>] 
= α <0.12,0.08> = <0.6,0.4> 
Idéia geral: Calcular a distribuição sobre a variável de consulta 
fixando as variáveis de evidência e somando as variáveis 
ocultas.
Inferência por enumeração 
Normalmente estamos interessandos: 
Na distribuição conjunta posterior das variáveis de consulta Y 
sendo dados valores específicos (e) para as variáveis de evidência E 
Sejam as variáveis ocultas H = X - Y - E 
Então a totalização esperada dos valores da distribuição conjunta é 
realizada pela soma das variáveis ocultas: 
P(Y | E = e) = αP(Y,E = e) = αΣhP(Y,E= e, H = h) 
! Os termos são partes da distribuição conjunta pelo fato de que Y, E e 
H juntos são exaustivos dentro do conjunto de variáveis aleatórias. 
Problemas óbvios: 
1. Complexidade do pior caso é O(dn) onde d é a maior aridade (domínio da 
variável aleatória) 
2. Complexidade de espaço é O(dn) para armazenamento da distribuição 
conjunta 
3. Como encontrar valores para elementos de entrada em ordem O(dn)?
Independência 
! A e B são independentes sse: 
P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) 
P(DorDeDente, Boticão, Cárie, Tempo) 
= P(DorDeDente, Boticão, Cárie) P(Tempo) 
! 32 entradas foram reduzidas a 12; 
! Para n moedas independentes (não “viciadas “) teríamos O(2n) 
→O(n) (! reduzida) 
! Independência Absoluta é poderosa, mas rara. 
! Odontologia é um campo amplo com centenas de variáveis , 
nenhuma das quais é independente. O que fazer?
Independência Condicional 
! P(DorDeDente, Cárie, Boticão) tem 23 – 1 = 7 entradas 
independentes 
! Se temos cárie, a probabilidade de ter que usar o 
boticão não depende do fato de termos dor de dente. 
(1) P(boticão | dordedente, cárie) = P(boticão | cárie) 
! O memos ocorre se não temos cárie: 
(2) P(boticão | DorDeDente,¬cárie) = P(boticao | ¬cárie) 
! Boticao é condicionalmente independente de 
DorDeDente dado Cárie 
! Declarações equivalentes: 
P(DorDeDente | Boticao, Cárie) = P(DorDeDente | Cárie) 
P(DorDeDente, Boticao | Cárie) = P(DorDeDente | Cárie) P(Boticao| Cárie)
Independência condicional-cont 
! Escreve-se uma Distribuição conjunta completa 
usando a regra da cadeia. 
P(DorDeDente, Boticão, Cárie) 
= P(DorDeDente | Boticão, Cárie) P(Boticão, Cárie) 
= P(DorDeDente | Boticão, Cárie) P(Boticão | Cárie) P(Cárie) 
= P(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) 
I.e., 2 + 2 + 1 = 5 números independentes 
! Na maioria dos casos a independência reduz o 
tamanho da representação da distribuição conjunta 
de exponencial para linear em n .
Regra de Bayes 
! Regra do produto: P(a∧b) = P(a | b) P(b) = P(b | a) P(a) 
⇒ Regra de Bayes: P(a | b) = P(b | a) P(a) / P(b) 
! Na forma de distribuição: 
P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) 
! Útil para determinação de uma probabilidade de 
diagnóstico a partir da probabilidade causal: 
! P(Causa|Efeito) = P(Efeito|Causa) P(Causa) / P(Efeito) 
! E.g., seja M para o fator de alguém estar com meningite, S 
para ter o percoço rígido: 
P(m|s) = P(s|m) P(m) / P(s) = 0.8 × 0.0001 / 0.1 = 0.0008
Regra de Bayes e Independência Condicional 
P(Cárie | DorDeDente ∧ Boticão) 
= αP(DorDeDente ∧ Boticão | Cárie) P(Cárie) 
= αP(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) 
! Modelo de Bayes Ingênuo (Naïve): (IDIOTA) 
P(Causa,Efeito1, … ,Efeiton) = P(Cause) πiP(Effecti|Cause) 
Número total de Parâmetros é linear em n
Redes Bayesianas 
! Def: Notação gráfica para declarações de independência 
condicional e consequentemente para uma especificação 
compacta de distribuições conjuntas complexas 
! Sintaxe: 
! Um conjunto de “nós”, um por variável 
! Um grafo direcional acíclico mostrando influencias diretas 
! Uma distribuição condicional para cada nó dado seu pais 
P (Xi | Pais (Xi)) 
! No caso mais simples, a distribuição condicional é representada como uma tabela de 
prabilidade condicional dando a distribução sobre Xi para cada combinação de valores dos 
pais
Exemplo de Rede Bayesiana 
! A topologia da rede codifica as declarações de 
independência condicional: 
! Tempo é independente de outras variáveis 
! DorDeDente and Boticão são condicionalmente 
independentes dada cárie
Exemplo de Rede Bayesiana 
! A topologia da rede codifica as declarações de 
independência condicional: 
! Tempo é independente de outras variáveis 
! DorDeDente and Boticão são condicionalmente 
independentes dada cárie
Exemplo do Alarme 
Alguém estando no trabalho recebe o telefone do vizinho 
João Rapadura dizendo que o alarme da casa está tocando, 
mas a vizinha do outro lado Maria Amargura não 
ligou.Algumas vezes o alarme é disparado por pequenos 
tremores de terra. Será que tem um ladrão na casa? 
Variáveis: Ladrão, Terremoto, Alarme,JoaoLiga, MariaLiga 
A rede reflete o conhecimento "causal": 
Um ladrão(burglar) pode disparar o alarme 
Um terremoto (earthquake) pode disparar o alarme 
O Alarme pode fazer Maria(Mary) telefonar 
O Alarme pode fazer Joao(John) telefonar
A rede!
Compactação da Rede 
! Uma tabela com variáveis aleatórias booleanas Xi com k 
parentes booleanos terá 2k linhas para a combinação de valores 
dos pais 
! Cada linha requererá um valor p para Xi = Verdade 
(o valor para Xi = false é 1-p) 
! Se cada variável não tem mais que k pais, a rede completa fará 
O(n · 2k) valores 
! I.e., cresce linearmente com n, vs. O(2n) para a distribuição 
conjunta total 
! Para a rede do alarme teremos 1 + 1 + 4 + 2 + 2 = 10 valores 
(vs. 25-1 = 31)
Semântica da Rede 
A distribuição conjunta total é definida como o produto 
das distribuições condicionais locais 
P (X1, … ,Xn) = πi = 1 P (Xi | Pais(Xi)) 
e.g., P(j ∧ m ∧ a ∧ ¬b ∧ ¬e) 
= P (j | a) P (m | a) P (a | ¬b, ¬e) P (¬b) P (¬e)
Rede não puramente causal 
! Vamos usar o exemplo do alarme com a seguinte ordem de 
inserção dos nós: 
! MaryCalls, JohnCalls, Alarme, Roubo e Terremoto. 
Roubo 
Terremoto 
Alarme 
JohnCalls 
MaryCalls
Redes não puramente causais 
" Problemas: 
" A figura possui duas conexões a mais 
" julgamento não natural e difícil das probabilidades 
" Tendo uma rede puramente causal, teríamos um 
número menor de conexões
Tipos de Inferência em Redes Bayesianas 
Causal – Causa para efeito 
" P(JohnCalls/Roubo) = 0,86 
Roubo Alarme JohnCalls 
Evidência Query 
Diagnóstico – Efeito para Causa 
" P(Roubo/JohnCalls) = 0,016 
JohnCalls Alarme Roubo 
Evidência Query 
! Intercausal (entre causas com um efeito comum) 
! P(Roubo/Alarme) = 0,376 
! P(Roubo/Alarme ∧Terremoto) = 0,373 
Roubo Alarme Terremoto 
Query Evidência
Tipos de Inferências 
" Mista (combinando duas ou mais das de cima) 
" P(Alarme/JohnCalls ∧¬Terremoto) = 0,03 
" Este é um uso simultâneo de inferência causal e diagnóstico. 
JohnCalls Alarme Terremoto 
Evidência Query Evidência
Independência de Novo 
• Dependências 
• Intuitiva. 
• Dois nós conectados 
influenciam um ao outro 
simetricamente. 
• Independências 
• Exemplo: I (J;M|A), 
I(B;E) 
• Outros I(B;E|A)? 
• -- d-seperation. 
• (Separação Direcional)
Separação -d 
M e B são separados-d Dado A 
(Independentes) 
B A M
Separação –d - Divergente 
M e J são separados-d Dado A 
(Independentes) 
A 
J M 
Influencia pode 
ocorrer de J em M se 
não conhecemos A 
mas I(J;M|A)
Separação –d – convergente 
E e B são separados-d NÃO Dado A 
(Independentes) 
E B 
A 
E não pode influenciar 
B dado que A não é 
conhecido. 
I(E;B)
Consultas (Query) 
Informações interessantes das probabilidades conjuntas: 
Qual a probabilidade de ambos Maria e John ligarem se 
acontecer um roubo? P(M, J|B) 
Qual a mais provável explicação para o fato que Maria 
Ligou? 
Pode ser Respondido por Inferência na RB 
P(M,J|B)=P(B, M, J)/P(B) = 
ΣA 
E 
P E B A M J P B 
, 
( ( , , , , )) / ( )
Algoritmo de Eliminação de Variáveis – Inferência 
Exata 
• Idéia: Somar uma variável por vez, gerando uma nova 
distribuição em relação as outras variáveis conectando com a 
variável eliminada. 
• Quando Elimina-se E gera-se uma distribuição de A e B 
• Alta Complexidade (NP-HARD) usar Algoritmos de Formação 
de Agrupamentos /Árvores de Junção
Inferência Aproximada 
! Amostagem direta 
! Amostragem de rejeição 
! Ponderação de probabilidade 
! Simulação de Cadeias de Markov- 
Algoritmo CMMC (Cadeia de Markov 
Monte Carlo)
Modelos Temporais 
R t-1 P(Rt) 
V 0,7 
F 0,3 
R t-1 
U t-1 
R t 
U t 
R t+1 
U t +1 
R t P(Ut) 
V 0,9 
F 0,2
Modelos Temporais 
Hipótese de Markov: Estado atual depende apenas 
de um histórico finito de estados anteriores. 
Processos de Markov ou Cadeias de Markov 
Processo de Markov de Primeira Ordem: 
P(Xt|X0:t-1) = P(Xt|Xt-1) 
Usos: Filtragem, monitoramento e suavização
Modelos Temporais 
! Redes bayesianas dinâmicas 
! Casos especiais: 
! MOM – Modelos Ocultos de Markov 
! Filtros de Kalman 
! Etc. 
! Aplicações em PDS/Voz, Imagem, etc 
! Fica para a próxima .........................

Contenu connexe

Tendances

Aula 1 alimentos concentrados proteicos de origem animal (1)
Aula 1  alimentos concentrados proteicos de origem animal (1)Aula 1  alimentos concentrados proteicos de origem animal (1)
Aula 1 alimentos concentrados proteicos de origem animal (1)Glaucia Moraes
 
USO DE ANIMAIS EM PESQUISAS CIENTÍFICAS
USO DE ANIMAIS EM PESQUISAS CIENTÍFICASUSO DE ANIMAIS EM PESQUISAS CIENTÍFICAS
USO DE ANIMAIS EM PESQUISAS CIENTÍFICASGUILHERME FRANÇA
 
Karl Popper e o Falsificacionismo
Karl Popper e o FalsificacionismoKarl Popper e o Falsificacionismo
Karl Popper e o Falsificacionismoguestbdb4ab6
 
Proteínas na alimentação animal
 Proteínas na alimentação animal Proteínas na alimentação animal
Proteínas na alimentação animalwellison nascimento
 
Fauna - Aspectos Legais - Tráfico - Maus Tratos
Fauna - Aspectos Legais  - Tráfico - Maus TratosFauna - Aspectos Legais  - Tráfico - Maus Tratos
Fauna - Aspectos Legais - Tráfico - Maus TratosVitor Vieira Vasconcelos
 
Nascimento da filosofia
Nascimento da filosofiaNascimento da filosofia
Nascimento da filosofiaFilazambuja
 
Estatistica aplicada exercicios resolvidos manual tecnico formando
Estatistica aplicada exercicios resolvidos manual tecnico formandoEstatistica aplicada exercicios resolvidos manual tecnico formando
Estatistica aplicada exercicios resolvidos manual tecnico formandoAntonio Mankumbani Chora
 
Romantismo na filosofia e no positivismo
Romantismo na filosofia e no positivismoRomantismo na filosofia e no positivismo
Romantismo na filosofia e no positivismoAlexandre Misturini
 
Filosofia PolíTica
Filosofia PolíTicaFilosofia PolíTica
Filosofia PolíTicaguestc51fe5
 
Sanidade de caprino e ovino
Sanidade de caprino e ovinoSanidade de caprino e ovino
Sanidade de caprino e ovinoadelmosantana
 
Sensoriamento remoto
Sensoriamento remotoSensoriamento remoto
Sensoriamento remotoGeagra UFG
 
Bem-estar e comportamento
Bem-estar e comportamentoBem-estar e comportamento
Bem-estar e comportamentoMarília Gomes
 
Tecnologias para agricultura familiar
Tecnologias para agricultura familiarTecnologias para agricultura familiar
Tecnologias para agricultura familiarAlexandre Panerai
 

Tendances (20)

Slide - Pronto.pptx
Slide - Pronto.pptxSlide - Pronto.pptx
Slide - Pronto.pptx
 
Lógica filosófica
Lógica filosóficaLógica filosófica
Lógica filosófica
 
Aula 1 alimentos concentrados proteicos de origem animal (1)
Aula 1  alimentos concentrados proteicos de origem animal (1)Aula 1  alimentos concentrados proteicos de origem animal (1)
Aula 1 alimentos concentrados proteicos de origem animal (1)
 
USO DE ANIMAIS EM PESQUISAS CIENTÍFICAS
USO DE ANIMAIS EM PESQUISAS CIENTÍFICASUSO DE ANIMAIS EM PESQUISAS CIENTÍFICAS
USO DE ANIMAIS EM PESQUISAS CIENTÍFICAS
 
Karl Popper e o Falsificacionismo
Karl Popper e o FalsificacionismoKarl Popper e o Falsificacionismo
Karl Popper e o Falsificacionismo
 
Proteínas na alimentação animal
 Proteínas na alimentação animal Proteínas na alimentação animal
Proteínas na alimentação animal
 
Fauna - Aspectos Legais - Tráfico - Maus Tratos
Fauna - Aspectos Legais  - Tráfico - Maus TratosFauna - Aspectos Legais  - Tráfico - Maus Tratos
Fauna - Aspectos Legais - Tráfico - Maus Tratos
 
Nascimento da filosofia
Nascimento da filosofiaNascimento da filosofia
Nascimento da filosofia
 
Estatistica aplicada exercicios resolvidos manual tecnico formando
Estatistica aplicada exercicios resolvidos manual tecnico formandoEstatistica aplicada exercicios resolvidos manual tecnico formando
Estatistica aplicada exercicios resolvidos manual tecnico formando
 
Romantismo na filosofia e no positivismo
Romantismo na filosofia e no positivismoRomantismo na filosofia e no positivismo
Romantismo na filosofia e no positivismo
 
Iluminismo!
Iluminismo!Iluminismo!
Iluminismo!
 
Noções de Probabilidade
Noções de ProbabilidadeNoções de Probabilidade
Noções de Probabilidade
 
Filosofia PolíTica
Filosofia PolíTicaFilosofia PolíTica
Filosofia PolíTica
 
Prova n2
Prova n2Prova n2
Prova n2
 
Sanidade de caprino e ovino
Sanidade de caprino e ovinoSanidade de caprino e ovino
Sanidade de caprino e ovino
 
Sensoriamento remoto
Sensoriamento remotoSensoriamento remoto
Sensoriamento remoto
 
Bem-estar e comportamento
Bem-estar e comportamentoBem-estar e comportamento
Bem-estar e comportamento
 
Tecnologias para agricultura familiar
Tecnologias para agricultura familiarTecnologias para agricultura familiar
Tecnologias para agricultura familiar
 
Aula 12 - Lógica
Aula 12 - LógicaAula 12 - Lógica
Aula 12 - Lógica
 
Circulo de viena
Circulo de vienaCirculo de viena
Circulo de viena
 

En vedette

Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 - Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 - ronaldo ramos
 
Curso Inteligência Artificial - Parte 1 -
Curso Inteligência Artificial - Parte 1 -Curso Inteligência Artificial - Parte 1 -
Curso Inteligência Artificial - Parte 1 -ronaldo ramos
 
Curso de IA - Parte 4 -
Curso de IA - Parte 4 -Curso de IA - Parte 4 -
Curso de IA - Parte 4 -ronaldo ramos
 
Curso Inteligência Artificial - Parte 2 -
Curso Inteligência Artificial - Parte 2 -Curso Inteligência Artificial - Parte 2 -
Curso Inteligência Artificial - Parte 2 -ronaldo ramos
 
Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]ronaldo ramos
 
Apresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma AracatiApresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma Aracatironaldo ramos
 
Inteligência Artificial - Data Mining
Inteligência Artificial - Data MiningInteligência Artificial - Data Mining
Inteligência Artificial - Data Miningronaldo ramos
 
Logica programacao python-slides
Logica programacao python-slidesLogica programacao python-slides
Logica programacao python-slidesronaldo ramos
 
Creando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con KivyCreando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con KivyNahuel Defossé
 
Gerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - CompiladoresGerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - CompiladoresAnderson Favaro
 
Desarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y KivyDesarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y KivyErnesto Crespo
 
Árvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenaçãoÁrvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenaçãoGustavo Chaves
 

En vedette (20)

Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 - Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 -
 
Curso Inteligência Artificial - Parte 1 -
Curso Inteligência Artificial - Parte 1 -Curso Inteligência Artificial - Parte 1 -
Curso Inteligência Artificial - Parte 1 -
 
Curso de IA - Parte 4 -
Curso de IA - Parte 4 -Curso de IA - Parte 4 -
Curso de IA - Parte 4 -
 
Curso Inteligência Artificial - Parte 2 -
Curso Inteligência Artificial - Parte 2 -Curso Inteligência Artificial - Parte 2 -
Curso Inteligência Artificial - Parte 2 -
 
Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]
 
Apresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma AracatiApresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma Aracati
 
Inteligência Artificial - Data Mining
Inteligência Artificial - Data MiningInteligência Artificial - Data Mining
Inteligência Artificial - Data Mining
 
Logica programacao python-slides
Logica programacao python-slidesLogica programacao python-slides
Logica programacao python-slides
 
Compiladores
CompiladoresCompiladores
Compiladores
 
Compiladores 5
Compiladores 5Compiladores 5
Compiladores 5
 
Introducao a LPC
Introducao a LPCIntroducao a LPC
Introducao a LPC
 
Compiladores-aula01
Compiladores-aula01Compiladores-aula01
Compiladores-aula01
 
Compiladores 1
Compiladores 1Compiladores 1
Compiladores 1
 
Teoria da Computação
Teoria da ComputaçãoTeoria da Computação
Teoria da Computação
 
Creando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con KivyCreando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con Kivy
 
Gerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - CompiladoresGerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - Compiladores
 
Árvore B
Árvore BÁrvore B
Árvore B
 
Árvores Rubro Negras
Árvores Rubro NegrasÁrvores Rubro Negras
Árvores Rubro Negras
 
Desarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y KivyDesarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y Kivy
 
Árvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenaçãoÁrvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenação
 

Similaire à Probabilidade, Incerteza e Tomada de Decisões

Similaire à Probabilidade, Incerteza e Tomada de Decisões (20)

37
3737
37
 
Probabilidade
ProbabilidadeProbabilidade
Probabilidade
 
44-aula44-incertezaII.pdf
44-aula44-incertezaII.pdf44-aula44-incertezaII.pdf
44-aula44-incertezaII.pdf
 
3 probabilidade
3   probabilidade3   probabilidade
3 probabilidade
 
P1fmt20141
P1fmt20141P1fmt20141
P1fmt20141
 
Aula 5 probabilidade
Aula 5   probabilidadeAula 5   probabilidade
Aula 5 probabilidade
 
Notas de aula 01 2015-2
Notas de aula 01 2015-2Notas de aula 01 2015-2
Notas de aula 01 2015-2
 
aula estatistica.ppt
aula estatistica.pptaula estatistica.ppt
aula estatistica.ppt
 
Teoria_das_Probabilidades_processos_estocasticos.pptx
Teoria_das_Probabilidades_processos_estocasticos.pptxTeoria_das_Probabilidades_processos_estocasticos.pptx
Teoria_das_Probabilidades_processos_estocasticos.pptx
 
Aula 6 probabilidade condicional
Aula 6   probabilidade condicionalAula 6   probabilidade condicional
Aula 6 probabilidade condicional
 
Rlm
RlmRlm
Rlm
 
Raciocínio lógico argumentativo
Raciocínio lógico argumentativoRaciocínio lógico argumentativo
Raciocínio lógico argumentativo
 
m60
m60m60
m60
 
Modulo 4
Modulo 4Modulo 4
Modulo 4
 
Probabilidade
ProbabilidadeProbabilidade
Probabilidade
 
29-aula29.pdf
29-aula29.pdf29-aula29.pdf
29-aula29.pdf
 
Estatística: Introduçao à Estimacao Bayesiana
Estatística: Introduçao à Estimacao BayesianaEstatística: Introduçao à Estimacao Bayesiana
Estatística: Introduçao à Estimacao Bayesiana
 
Trabalho de física erro absoluto e erro relatico
Trabalho de física erro absoluto e erro relaticoTrabalho de física erro absoluto e erro relatico
Trabalho de física erro absoluto e erro relatico
 
Estatística: Modelos Discretos
Estatística: Modelos DiscretosEstatística: Modelos Discretos
Estatística: Modelos Discretos
 
Probabilidade um curso introdutório dantas
Probabilidade um curso introdutório dantasProbabilidade um curso introdutório dantas
Probabilidade um curso introdutório dantas
 

Plus de ronaldo ramos

javascript_funcional.pdf
javascript_funcional.pdfjavascript_funcional.pdf
javascript_funcional.pdfronaldo ramos
 
python_funcional.pdf
python_funcional.pdfpython_funcional.pdf
python_funcional.pdfronaldo ramos
 
paradigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdfparadigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdfronaldo ramos
 
paradigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdfparadigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdfronaldo ramos
 
paradigmas_de_programacao.pdf
paradigmas_de_programacao.pdfparadigmas_de_programacao.pdf
paradigmas_de_programacao.pdfronaldo ramos
 
paradigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdfparadigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdfronaldo ramos
 
python_funcional.pdf
python_funcional.pdfpython_funcional.pdf
python_funcional.pdfronaldo ramos
 
48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdf48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdfronaldo ramos
 
47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdf47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdfronaldo ramos
 

Plus de ronaldo ramos (20)

03_lisp.pdf
03_lisp.pdf03_lisp.pdf
03_lisp.pdf
 
02_lisp.pdf
02_lisp.pdf02_lisp.pdf
02_lisp.pdf
 
01_lisp.pdf
01_lisp.pdf01_lisp.pdf
01_lisp.pdf
 
javascript_funcional.pdf
javascript_funcional.pdfjavascript_funcional.pdf
javascript_funcional.pdf
 
python_funcional.pdf
python_funcional.pdfpython_funcional.pdf
python_funcional.pdf
 
_001_introducao.pdf
_001_introducao.pdf_001_introducao.pdf
_001_introducao.pdf
 
paradigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdfparadigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdf
 
paradigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdfparadigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdf
 
paradigmas_de_programacao.pdf
paradigmas_de_programacao.pdfparadigmas_de_programacao.pdf
paradigmas_de_programacao.pdf
 
paradigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdfparadigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdf
 
python_funcional.pdf
python_funcional.pdfpython_funcional.pdf
python_funcional.pdf
 
40-aula40.pdf
40-aula40.pdf40-aula40.pdf
40-aula40.pdf
 
43-aula43.pdf
43-aula43.pdf43-aula43.pdf
43-aula43.pdf
 
48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdf48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdf
 
47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdf47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdf
 
46-aula46-fuzzy.pdf
46-aula46-fuzzy.pdf46-aula46-fuzzy.pdf
46-aula46-fuzzy.pdf
 
42-aula42.pdf
42-aula42.pdf42-aula42.pdf
42-aula42.pdf
 
39-aula39.pdf
39-aula39.pdf39-aula39.pdf
39-aula39.pdf
 
38-aula38.pdf
38-aula38.pdf38-aula38.pdf
38-aula38.pdf
 
36-aula36.pdf
36-aula36.pdf36-aula36.pdf
36-aula36.pdf
 

Dernier

Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicasCenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicasRosalina Simão Nunes
 
Manual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envioManual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envioManuais Formação
 
GÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
GÊNERO TEXTUAL - TIRINHAS - Charges - CartumGÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
GÊNERO TEXTUAL - TIRINHAS - Charges - CartumAugusto Costa
 
Habilidades Motoras Básicas e Específicas
Habilidades Motoras Básicas e EspecíficasHabilidades Motoras Básicas e Específicas
Habilidades Motoras Básicas e EspecíficasCassio Meira Jr.
 
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃOLEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃOColégio Santa Teresinha
 
AD2 DIDÁTICA.KARINEROZA.SHAYANNE.BINC.ROBERTA.pptx
AD2 DIDÁTICA.KARINEROZA.SHAYANNE.BINC.ROBERTA.pptxAD2 DIDÁTICA.KARINEROZA.SHAYANNE.BINC.ROBERTA.pptx
AD2 DIDÁTICA.KARINEROZA.SHAYANNE.BINC.ROBERTA.pptxkarinedarozabatista
 
Bullying - Atividade com caça- palavras
Bullying   - Atividade com  caça- palavrasBullying   - Atividade com  caça- palavras
Bullying - Atividade com caça- palavrasMary Alvarenga
 
Bullying - Texto e cruzadinha
Bullying        -     Texto e cruzadinhaBullying        -     Texto e cruzadinha
Bullying - Texto e cruzadinhaMary Alvarenga
 
Orações subordinadas substantivas (andamento).pptx
Orações subordinadas substantivas (andamento).pptxOrações subordinadas substantivas (andamento).pptx
Orações subordinadas substantivas (andamento).pptxKtiaOliveira68
 
activIDADES CUENTO lobo esta CUENTO CUARTO GRADO
activIDADES CUENTO  lobo esta  CUENTO CUARTO GRADOactivIDADES CUENTO  lobo esta  CUENTO CUARTO GRADO
activIDADES CUENTO lobo esta CUENTO CUARTO GRADOcarolinacespedes23
 
trabalho wanda rocha ditadura
trabalho wanda rocha ditaduratrabalho wanda rocha ditadura
trabalho wanda rocha ditaduraAdryan Luiz
 
A horta do Senhor Lobo que protege a sua horta.
A horta do Senhor Lobo que protege a sua horta.A horta do Senhor Lobo que protege a sua horta.
A horta do Senhor Lobo que protege a sua horta.silves15
 
Época Realista y la obra de Madame Bovary.
Época Realista y la obra de Madame Bovary.Época Realista y la obra de Madame Bovary.
Época Realista y la obra de Madame Bovary.keislayyovera123
 
Gerenciando a Aprendizagem Organizacional
Gerenciando a Aprendizagem OrganizacionalGerenciando a Aprendizagem Organizacional
Gerenciando a Aprendizagem OrganizacionalJacqueline Cerqueira
 
Governo Provisório Era Vargas 1930-1934 Brasil
Governo Provisório Era Vargas 1930-1934 BrasilGoverno Provisório Era Vargas 1930-1934 Brasil
Governo Provisório Era Vargas 1930-1934 Brasillucasp132400
 
Simulado 1 Etapa - 2024 Proximo Passo.pdf
Simulado 1 Etapa - 2024 Proximo Passo.pdfSimulado 1 Etapa - 2024 Proximo Passo.pdf
Simulado 1 Etapa - 2024 Proximo Passo.pdfEditoraEnovus
 
Slides 1 - O gênero textual entrevista.pptx
Slides 1 - O gênero textual entrevista.pptxSlides 1 - O gênero textual entrevista.pptx
Slides 1 - O gênero textual entrevista.pptxSilvana Silva
 
D9 RECONHECER GENERO DISCURSIVO SPA.pptx
D9 RECONHECER GENERO DISCURSIVO SPA.pptxD9 RECONHECER GENERO DISCURSIVO SPA.pptx
D9 RECONHECER GENERO DISCURSIVO SPA.pptxRonys4
 

Dernier (20)

Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicasCenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
 
XI OLIMPÍADAS DA LÍNGUA PORTUGUESA -
XI OLIMPÍADAS DA LÍNGUA PORTUGUESA      -XI OLIMPÍADAS DA LÍNGUA PORTUGUESA      -
XI OLIMPÍADAS DA LÍNGUA PORTUGUESA -
 
Manual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envioManual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envio
 
GÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
GÊNERO TEXTUAL - TIRINHAS - Charges - CartumGÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
GÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
 
Habilidades Motoras Básicas e Específicas
Habilidades Motoras Básicas e EspecíficasHabilidades Motoras Básicas e Específicas
Habilidades Motoras Básicas e Específicas
 
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃOLEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
 
AD2 DIDÁTICA.KARINEROZA.SHAYANNE.BINC.ROBERTA.pptx
AD2 DIDÁTICA.KARINEROZA.SHAYANNE.BINC.ROBERTA.pptxAD2 DIDÁTICA.KARINEROZA.SHAYANNE.BINC.ROBERTA.pptx
AD2 DIDÁTICA.KARINEROZA.SHAYANNE.BINC.ROBERTA.pptx
 
Bullying - Atividade com caça- palavras
Bullying   - Atividade com  caça- palavrasBullying   - Atividade com  caça- palavras
Bullying - Atividade com caça- palavras
 
Bullying - Texto e cruzadinha
Bullying        -     Texto e cruzadinhaBullying        -     Texto e cruzadinha
Bullying - Texto e cruzadinha
 
Orações subordinadas substantivas (andamento).pptx
Orações subordinadas substantivas (andamento).pptxOrações subordinadas substantivas (andamento).pptx
Orações subordinadas substantivas (andamento).pptx
 
CINEMATICA DE LOS MATERIALES Y PARTICULA
CINEMATICA DE LOS MATERIALES Y PARTICULACINEMATICA DE LOS MATERIALES Y PARTICULA
CINEMATICA DE LOS MATERIALES Y PARTICULA
 
activIDADES CUENTO lobo esta CUENTO CUARTO GRADO
activIDADES CUENTO  lobo esta  CUENTO CUARTO GRADOactivIDADES CUENTO  lobo esta  CUENTO CUARTO GRADO
activIDADES CUENTO lobo esta CUENTO CUARTO GRADO
 
trabalho wanda rocha ditadura
trabalho wanda rocha ditaduratrabalho wanda rocha ditadura
trabalho wanda rocha ditadura
 
A horta do Senhor Lobo que protege a sua horta.
A horta do Senhor Lobo que protege a sua horta.A horta do Senhor Lobo que protege a sua horta.
A horta do Senhor Lobo que protege a sua horta.
 
Época Realista y la obra de Madame Bovary.
Época Realista y la obra de Madame Bovary.Época Realista y la obra de Madame Bovary.
Época Realista y la obra de Madame Bovary.
 
Gerenciando a Aprendizagem Organizacional
Gerenciando a Aprendizagem OrganizacionalGerenciando a Aprendizagem Organizacional
Gerenciando a Aprendizagem Organizacional
 
Governo Provisório Era Vargas 1930-1934 Brasil
Governo Provisório Era Vargas 1930-1934 BrasilGoverno Provisório Era Vargas 1930-1934 Brasil
Governo Provisório Era Vargas 1930-1934 Brasil
 
Simulado 1 Etapa - 2024 Proximo Passo.pdf
Simulado 1 Etapa - 2024 Proximo Passo.pdfSimulado 1 Etapa - 2024 Proximo Passo.pdf
Simulado 1 Etapa - 2024 Proximo Passo.pdf
 
Slides 1 - O gênero textual entrevista.pptx
Slides 1 - O gênero textual entrevista.pptxSlides 1 - O gênero textual entrevista.pptx
Slides 1 - O gênero textual entrevista.pptx
 
D9 RECONHECER GENERO DISCURSIVO SPA.pptx
D9 RECONHECER GENERO DISCURSIVO SPA.pptxD9 RECONHECER GENERO DISCURSIVO SPA.pptx
D9 RECONHECER GENERO DISCURSIVO SPA.pptx
 

Probabilidade, Incerteza e Tomada de Decisões

  • 1. Incerteza, Cap 13 Ronaldo F. Ramos, Dr. ronaldo@cefet-ce.br Adaptado de : aima.cs.berkeley.edu
  • 2. Roteiro ! Incerteza ! Probabilidade ! Sintaxe e Semântica ! Inferência ! Independência e regra de Bayes
  • 3. Incerteza Seja a ação At = seguir para o aeroporto chegando t minutos antes do vôo Esta ação At nos deixará pontualmente? Problemas: 1. observalidade parcial (estado da rodovia, planos de outros motoristas, etc.) 2. sensores de ruído (relatórios com situação do tráfego) 3. incerteza nos resultados das ações (pneu furado, etc.) 4. complexidade excessiva da modelagem e previsão do tráfego. Consequentemente uma abordagem puramente lógica poderia: 1. correr risco de falsa afirmativa: “A25 me deixará à tempo no aeroporto”, ou 2. levará a conclusões muitos fracas para tomada de decisões: “A25 me deixará lá a tempo se não houver acidentes na ponte, se não chover e meus pneus permanecerem intactos etc etc.” (A1440 pode ser dito razoavelmente que chegarei a tempo, mas eu teria que permanecer a noite toda no aeroporto …)
  • 4. Métodos para tratamento da Incerteza ! Logica Default ou não monotônica: ! Assumir que meu carro não terá um pneu furado ! Assumir que A25 funcionará a não ser que seja contradita pela evidência ! Questões: Que suposições são razoáveis? Como tratar contradições? ! Regras com graus fictícios: ! A25 |→0.3 chegar a tempo ! Irrigador |→ 0.99 GramaMolhada ! GramaMolhada |→ 0.7 Chuva ! Questões: Problemas com combinações, ex., Irrigador causa chuva?? ! Probabilidade ! Modela o grau de crença do agente ! Dada uma evidência disponível, ! A25 me deixará a tempo com probabilidade 0.04
  • 5. Probabilidade Assertivas probabilisticas sumarizam os efeitos de : ! Preguiça: falha em enumerar exceções, qualificações, etc. ! Ignorância: falta de fatos relevantes, condições iniciais, etc. Probabilidade Subjetiva: ! Probabilidades relatam proposições sobre o estado de conhecimento do agente ! ex. P(A25 | não houve acidentes) = 0.06 Isto não são afirmações sobre o mundo. Probabilidades de proposições podem mudar de acordo com novas evidências: ex., P(A25 | não houve acidentes as 5h)= 0.15
  • 6. Tomando decisões em face da incerteza Suponha que acreditemos que: P(A25 me deixará a tempo| …) = 0.04 P(A90 me deixará a tempo|…) = 0.70 P(A120 me deixará a tempo| …) = 0.95 P(A1440 me deixará a tempo| …) = 0.9999 ! Que ação devo escolher? Dependerá de minhas preferências por vôos não disponíveis vc tempo gasto esperando, etc. ! Teoria da Utilidade é usada para representar e inferir preferências ! Teoria da Decisão = Teoria da Probabilidade + Teoria da Utilidade
  • 7. Sintaxe ! Elemento Básico: variável aleatória ! Semelhante a logica proposicional: mundos possíveis definidos pela atribuição de valores a variáveis aleatórias. ! Variables aleatórias booleanas ex., Cárie (tenho cárie?) ! Variáveis aleatórias discretas ex., Tempo pode ser: <ensolarado,chovendo,nublado,nevando> ! Valores de domínios devem ser exautivos e mutuamente exclusivos ! Proposição elementar construída pela atribuição de um valor a A ! Proposições complexas formadas a partir de proposições elementares e conectivos lógicos padrões. ex. Tempo = ensolarado ∨ Cárie = falso variável aleatória: ex., Tempo = ensolarado, Cárie = falso (abreviado como cárie)
  • 8. Sintaxe ! Evento Atômico: Uma especificação completa do estado do mundo sobre o qual o agente é incerto ! Ex. Se o mundo consiste de apenas duas variáveis aleatórias booleanas Cárie e DorDeDente, então existem 4 possíveis eventos atômicos: Cárie = falso ∧ DorDeDente = falso Cárie = falso ∧ DorDeDente = verdade Cárie = verdade ∧ DorDeDente = falso Cárie = verdade ∧ DorDeDente = verdade ! Eventos atômicos são mutualmente exclusivos e exaustivos
  • 9. Axiomas da Probabilidade ! Para quaisquer proposições A, B ! 0 ≤ P(A) ≤ 1 ! P(verdade) = 1 e P(falso) = 0 ! P(A ∨ B) = P(A) + P(B) - P(A ∧ B)
  • 10. Probabilidade a Priori ! Probabilidade a priori ou probabilidade incondicional de proposições ex., P(Cárie = verdade) = 0.1 e P(Tempo = ensolarado) = 0.72 corresponde a uma crença inicial antes da chegada de qualquer evidência nova. ! Distribuição de Probabilidade dá valores para todas possíveis atribuições: P(Tempo) = <0.72,0.1,0.08,0.1> (normalizado, i.e., soma é 1) ! Distribuição de probabilidade conjunta para um conjunto de variáveis aleatórias dá a probabilidade de todos os eventos sobre estas variáveis ! Ex. P(Tempo,Cárie) = uma matriz 4 × 2 de valores: Tempo = sol chuva nuvens neve Cárie = verdade 0.144 0.02 0.016 0.02 Cárie = falso 0.576 0.08 0.064 0.08 ! Toda questão a cerca do domínio pode ser respondida pela distribuição de probabilidade conjunta
  • 11. Probabilidade Condicional ! Probabilidade Condicional ou posterior ! ex.P(cárie | dordedente) = 0.8 i.e., dado que dordedente é tudo o que sei. ! Se sabemos mais, ex. que cárie é dada. Então temos: P(cárie | dordedente,cárie) = 1 ! Novas evidências podem ser irrelevantes, permitindo a simplificação, ex., P(cárie| dordedente, ensolarado) = P(cárie| dordedente) = 0.8 ! Este tipo de inferência, sancionada pelo conhecimento do domínio é crucial
  • 12. Probabilidade Condicional ! Definição. P(a | b) = P(a ∧ b) / P(b) se P(b) > 0 ! A regra do produto dá uma formulação alternativa: P(a ∧ b) = P(a | b) P(b) = P(b | a) P(a) ! Uma versão geral serve para distribuições inteiras. Ex., P(Tempo,Cárie) = P(Tempo | Cárie) P(Cárie) ! (Visto como um conjunto de 4 × 2 equações, não é multiplicação de matrizes) ! Regra da Cadeia é derivada por sucessivas aplicações da regra do produto: P(X1, …,Xn) = P(X1,...,Xn-1) P(Xn | X1,...,Xn-1) = P(X1,...,Xn-2) P(Xn-1 | X1,...,Xn-2) P(Xn | X1,...,Xn-1) = … = πi=n 1 P(Xi | X1, … ,Xi-1)
  • 13. Inferência por enumeração ! Começa com a distribuição de probabilidade conjunta: DordeDente ~DordeDente Boticão ~Boticão Boticão ~Boticão 0,108 0,012 0,072 0,008 0,016 0,064 0,144 0,576 Cárie ~Cárie ! Para qualquer proposição soma-se o eventos atômicos onde a mesma é verdade. P(carie=verdade)=0,108+0,012+0,072+0,008=0,2 (Chamada de probabilidade marginal) Podemos também calcular P(carie v dordedente) = 0,108+0,012+0,072+0,008+0,016+0,064=0,28. etc.
  • 14. Inferência por enumeração ! Iniciar com a distribuição conjunta: ! Pode calcular também as probabilidades condicionais: P(¬cárie | dordedente) = P(¬cárie ∧ dordedente) P(dordedente) = 0.016+0.064 0.108 + 0.012 + 0.016 + 0.064 = 0.4
  • 15. Normalização ! Denominador pode ser visto como uma constante de normalização P(Cárie | DorDeDente) = α P(Cárie,DorDeDente) = α [P(Cárie,DorDeDente,Boticão) + P(Cárie,DorDeDente,¬ Boticao)] = α [<0.108,0.016> + <0.012,0.064>] = α <0.12,0.08> = <0.6,0.4> Idéia geral: Calcular a distribuição sobre a variável de consulta fixando as variáveis de evidência e somando as variáveis ocultas.
  • 16. Inferência por enumeração Normalmente estamos interessandos: Na distribuição conjunta posterior das variáveis de consulta Y sendo dados valores específicos (e) para as variáveis de evidência E Sejam as variáveis ocultas H = X - Y - E Então a totalização esperada dos valores da distribuição conjunta é realizada pela soma das variáveis ocultas: P(Y | E = e) = αP(Y,E = e) = αΣhP(Y,E= e, H = h) ! Os termos são partes da distribuição conjunta pelo fato de que Y, E e H juntos são exaustivos dentro do conjunto de variáveis aleatórias. Problemas óbvios: 1. Complexidade do pior caso é O(dn) onde d é a maior aridade (domínio da variável aleatória) 2. Complexidade de espaço é O(dn) para armazenamento da distribuição conjunta 3. Como encontrar valores para elementos de entrada em ordem O(dn)?
  • 17. Independência ! A e B são independentes sse: P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) P(DorDeDente, Boticão, Cárie, Tempo) = P(DorDeDente, Boticão, Cárie) P(Tempo) ! 32 entradas foram reduzidas a 12; ! Para n moedas independentes (não “viciadas “) teríamos O(2n) →O(n) (! reduzida) ! Independência Absoluta é poderosa, mas rara. ! Odontologia é um campo amplo com centenas de variáveis , nenhuma das quais é independente. O que fazer?
  • 18. Independência Condicional ! P(DorDeDente, Cárie, Boticão) tem 23 – 1 = 7 entradas independentes ! Se temos cárie, a probabilidade de ter que usar o boticão não depende do fato de termos dor de dente. (1) P(boticão | dordedente, cárie) = P(boticão | cárie) ! O memos ocorre se não temos cárie: (2) P(boticão | DorDeDente,¬cárie) = P(boticao | ¬cárie) ! Boticao é condicionalmente independente de DorDeDente dado Cárie ! Declarações equivalentes: P(DorDeDente | Boticao, Cárie) = P(DorDeDente | Cárie) P(DorDeDente, Boticao | Cárie) = P(DorDeDente | Cárie) P(Boticao| Cárie)
  • 19. Independência condicional-cont ! Escreve-se uma Distribuição conjunta completa usando a regra da cadeia. P(DorDeDente, Boticão, Cárie) = P(DorDeDente | Boticão, Cárie) P(Boticão, Cárie) = P(DorDeDente | Boticão, Cárie) P(Boticão | Cárie) P(Cárie) = P(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) I.e., 2 + 2 + 1 = 5 números independentes ! Na maioria dos casos a independência reduz o tamanho da representação da distribuição conjunta de exponencial para linear em n .
  • 20. Regra de Bayes ! Regra do produto: P(a∧b) = P(a | b) P(b) = P(b | a) P(a) ⇒ Regra de Bayes: P(a | b) = P(b | a) P(a) / P(b) ! Na forma de distribuição: P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) ! Útil para determinação de uma probabilidade de diagnóstico a partir da probabilidade causal: ! P(Causa|Efeito) = P(Efeito|Causa) P(Causa) / P(Efeito) ! E.g., seja M para o fator de alguém estar com meningite, S para ter o percoço rígido: P(m|s) = P(s|m) P(m) / P(s) = 0.8 × 0.0001 / 0.1 = 0.0008
  • 21. Regra de Bayes e Independência Condicional P(Cárie | DorDeDente ∧ Boticão) = αP(DorDeDente ∧ Boticão | Cárie) P(Cárie) = αP(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) ! Modelo de Bayes Ingênuo (Naïve): (IDIOTA) P(Causa,Efeito1, … ,Efeiton) = P(Cause) πiP(Effecti|Cause) Número total de Parâmetros é linear em n
  • 22. Redes Bayesianas ! Def: Notação gráfica para declarações de independência condicional e consequentemente para uma especificação compacta de distribuições conjuntas complexas ! Sintaxe: ! Um conjunto de “nós”, um por variável ! Um grafo direcional acíclico mostrando influencias diretas ! Uma distribuição condicional para cada nó dado seu pais P (Xi | Pais (Xi)) ! No caso mais simples, a distribuição condicional é representada como uma tabela de prabilidade condicional dando a distribução sobre Xi para cada combinação de valores dos pais
  • 23. Exemplo de Rede Bayesiana ! A topologia da rede codifica as declarações de independência condicional: ! Tempo é independente de outras variáveis ! DorDeDente and Boticão são condicionalmente independentes dada cárie
  • 24. Exemplo de Rede Bayesiana ! A topologia da rede codifica as declarações de independência condicional: ! Tempo é independente de outras variáveis ! DorDeDente and Boticão são condicionalmente independentes dada cárie
  • 25. Exemplo do Alarme Alguém estando no trabalho recebe o telefone do vizinho João Rapadura dizendo que o alarme da casa está tocando, mas a vizinha do outro lado Maria Amargura não ligou.Algumas vezes o alarme é disparado por pequenos tremores de terra. Será que tem um ladrão na casa? Variáveis: Ladrão, Terremoto, Alarme,JoaoLiga, MariaLiga A rede reflete o conhecimento "causal": Um ladrão(burglar) pode disparar o alarme Um terremoto (earthquake) pode disparar o alarme O Alarme pode fazer Maria(Mary) telefonar O Alarme pode fazer Joao(John) telefonar
  • 27. Compactação da Rede ! Uma tabela com variáveis aleatórias booleanas Xi com k parentes booleanos terá 2k linhas para a combinação de valores dos pais ! Cada linha requererá um valor p para Xi = Verdade (o valor para Xi = false é 1-p) ! Se cada variável não tem mais que k pais, a rede completa fará O(n · 2k) valores ! I.e., cresce linearmente com n, vs. O(2n) para a distribuição conjunta total ! Para a rede do alarme teremos 1 + 1 + 4 + 2 + 2 = 10 valores (vs. 25-1 = 31)
  • 28. Semântica da Rede A distribuição conjunta total é definida como o produto das distribuições condicionais locais P (X1, … ,Xn) = πi = 1 P (Xi | Pais(Xi)) e.g., P(j ∧ m ∧ a ∧ ¬b ∧ ¬e) = P (j | a) P (m | a) P (a | ¬b, ¬e) P (¬b) P (¬e)
  • 29. Rede não puramente causal ! Vamos usar o exemplo do alarme com a seguinte ordem de inserção dos nós: ! MaryCalls, JohnCalls, Alarme, Roubo e Terremoto. Roubo Terremoto Alarme JohnCalls MaryCalls
  • 30. Redes não puramente causais " Problemas: " A figura possui duas conexões a mais " julgamento não natural e difícil das probabilidades " Tendo uma rede puramente causal, teríamos um número menor de conexões
  • 31. Tipos de Inferência em Redes Bayesianas Causal – Causa para efeito " P(JohnCalls/Roubo) = 0,86 Roubo Alarme JohnCalls Evidência Query Diagnóstico – Efeito para Causa " P(Roubo/JohnCalls) = 0,016 JohnCalls Alarme Roubo Evidência Query ! Intercausal (entre causas com um efeito comum) ! P(Roubo/Alarme) = 0,376 ! P(Roubo/Alarme ∧Terremoto) = 0,373 Roubo Alarme Terremoto Query Evidência
  • 32. Tipos de Inferências " Mista (combinando duas ou mais das de cima) " P(Alarme/JohnCalls ∧¬Terremoto) = 0,03 " Este é um uso simultâneo de inferência causal e diagnóstico. JohnCalls Alarme Terremoto Evidência Query Evidência
  • 33. Independência de Novo • Dependências • Intuitiva. • Dois nós conectados influenciam um ao outro simetricamente. • Independências • Exemplo: I (J;M|A), I(B;E) • Outros I(B;E|A)? • -- d-seperation. • (Separação Direcional)
  • 34. Separação -d M e B são separados-d Dado A (Independentes) B A M
  • 35. Separação –d - Divergente M e J são separados-d Dado A (Independentes) A J M Influencia pode ocorrer de J em M se não conhecemos A mas I(J;M|A)
  • 36. Separação –d – convergente E e B são separados-d NÃO Dado A (Independentes) E B A E não pode influenciar B dado que A não é conhecido. I(E;B)
  • 37. Consultas (Query) Informações interessantes das probabilidades conjuntas: Qual a probabilidade de ambos Maria e John ligarem se acontecer um roubo? P(M, J|B) Qual a mais provável explicação para o fato que Maria Ligou? Pode ser Respondido por Inferência na RB P(M,J|B)=P(B, M, J)/P(B) = ΣA E P E B A M J P B , ( ( , , , , )) / ( )
  • 38. Algoritmo de Eliminação de Variáveis – Inferência Exata • Idéia: Somar uma variável por vez, gerando uma nova distribuição em relação as outras variáveis conectando com a variável eliminada. • Quando Elimina-se E gera-se uma distribuição de A e B • Alta Complexidade (NP-HARD) usar Algoritmos de Formação de Agrupamentos /Árvores de Junção
  • 39. Inferência Aproximada ! Amostagem direta ! Amostragem de rejeição ! Ponderação de probabilidade ! Simulação de Cadeias de Markov- Algoritmo CMMC (Cadeia de Markov Monte Carlo)
  • 40. Modelos Temporais R t-1 P(Rt) V 0,7 F 0,3 R t-1 U t-1 R t U t R t+1 U t +1 R t P(Ut) V 0,9 F 0,2
  • 41. Modelos Temporais Hipótese de Markov: Estado atual depende apenas de um histórico finito de estados anteriores. Processos de Markov ou Cadeias de Markov Processo de Markov de Primeira Ordem: P(Xt|X0:t-1) = P(Xt|Xt-1) Usos: Filtragem, monitoramento e suavização
  • 42. Modelos Temporais ! Redes bayesianas dinâmicas ! Casos especiais: ! MOM – Modelos Ocultos de Markov ! Filtros de Kalman ! Etc. ! Aplicações em PDS/Voz, Imagem, etc ! Fica para a próxima .........................