SlideShare une entreprise Scribd logo
1  sur  26
Agents intelligents
Badiâa Dellal-Hedjazi USTHB – Département d’Informatique
1
Motivations
1) Résolution des problèmes
2) Apprentissage automatique
3) Compréhension du langage naturel
4) Raisonnement automatique
5) Systèmes experts...
Remarque: Ces systèmes sont renfermés sur leur raisonnement et ignorent tout de leur environnement
Mais : L’intelligence n’est pas une caractéristique individuelle que l’on peut séparer du contexte social.
2
Domaines de l’IA
Définition IA:
La construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies
de façon plus satisfaisante par des êtres humains.
• L’intelligence est également le produit de l’interaction avec l’environnement.
• Un comportement intelligent émerge de l’interaction de comportements plus simples.
Définition de l’IA:
L’IA est considérée comme la science de la conception d’agents intelligents.
Le paradigme Agent
Un agent est un système informatique situé dans un environnement qu’il
peut percevoir et sur lequel il peut agir.
Exemples:
Agent logiciel: Agenda électronique
Agent matériel: Robot
3
4
Fonction et programme agent
Le programme agent est une implémentation de la fonction
agent. Il associe à la perception actuelle l’action adéquate.
La fonction agent spécifie l’action qu’il exécute en
réponse à une séquence de percepts donnée.
Monde de l’aspirateur
2 salles, un robot aspirateur et de la saleté
Actions: Droite ; Gauche ; Aspirer ; Rien
5
Rationalité des agents
Le succès d’un agent est évalué par une mesure de performance:
• une fonction objective mesurant la qualité d’un comportement de l’agent
Exemple: Mesure de performance pour un agent aspirateur
• le volume de saleté ramassée
• le temps pris
• l’électricité consommée,
• le bruit produit, etc.
Rationalité ≠ Omniscience (tout savoir avec des connaissances sans limite)
2) Agent autonome
S’il est capable d’adapter son comportement aux changements dans l’environnement
(capable d’apprendre, de planifier, de raisonner)
6
1) Un agent rationnel est un agent qui agit d’une manière lui permettant d’obtenir le plus de
succès possible dans la réalisation des tâches qu’on lui a assignées.
MODELE PEAS
7
PEAS : Voiture autonome
8
PEAS : Système de diagnostic
médical
●Mesure de performance: Rétablissement des patients, Minimisation coûts.
●Environnement : Patient, hôpital, personnel
●Effecteurs: Affichage de questions, tests , diagnostics, traitements
●Capteurs : Entrée au clavier de symptômes, observations, réponses patient9
PEAS : Monde du Wumpus
10
 Mesure de performance
 or +1000, mort -1000
 -1 par un pas, -10 pour une flèche
 Environnement
 Puanteur dans les chambres adjacent au wumpus.
 Brise dans les chambres adjacentes à une fosse
 Scintillement si l’or est dans la chambre
 Le wumpus meurt si on lui tire une flèche de face
 On a une seule flèche
 On peut ramasser l’or dans la même chambre
 On peut lâcher l’or dans une chambre
 Senseurs: stench (puanteur), breeze (brise), glitter (scintillement), bumper
(choc), scream (cri).
 Actuateurs (Effecteurs): : tourne gauche, tourne droite, avance, saisit, tire
Propriétés de l’environnement
1. Complètement observable vs Partiellement observable: L’agent perçoit l’état complet de
l’environnement à tout moment.
Ex. Jeux d’échecs : CO / Voiture autonome : PO
2. Déterministe vs Stochastique: Le prochain état de l’environnement est complètement
déterminé par son état courant et l’action de l’agent ?
Ex. Robot aspirateur : D / Voiture autonome : S
3. Épisodique vs Séquentiel: Un épisode est une seule séquence perception-action.
Le prochain épisode ne dépend pas des actions effectuées dans les épisodes précédents.
Ex. Détection pièces défectueuses dans une chaine de montage: E / Voiture autonome: S
4. Statique vs Dynamique: L’environnement ne change pas pendant que l’agent délibère.
Ex. Agent de Mots-croisés : S / Voiture autonome : D
5. Discret vs Continu: La distinction discret/continu peut être appliquée à l’état de
l’environnement, à la façon dont le temps est géré, et aux perceptions et aux actions de l’agent.
Ex. Jeux d’échecs : D / Voiture autonome : C
6. Un agent vs Multi-agents : Est-ce qu’il y a plus qu’un agent interagissant ensemble ?
Ex. Agent de Mots-croisés : A / Jeux d’échecs: M 11
Types d’agents
•Agent réflexe simple (Simple reflex agent)
•Agent réflexe avec état interne (Model-based reflex agent)
•Agent basé sur les buts (Goal-based agent)
•Agent basé sur l’utilité (Utility-based agent)
•Agent apprenant (Learning agent)
12
Agent réflexe simple
13
Agent aspirateur réflexe
14
Problème : Boucle infinie
Agent réflexe avec état interne
15
Exemple: Peut résoudre un labyrinthe
Avantage : Evite les boucles infinies
16
Exemple: Peut résoudre n’importe quel labyrinthe.
Avantage : On peut changer de but sans réécrire toutes les règles.
Agent basé sur les buts
function Goal-Agent (percept) return action
Static: current world state
rules
State = update-state-(state, percept)
Do { rule = rule-match(state; rules)
action= rule-action(rule)
state=update-state(state, action)}
while (not goals?<-state)
Return action
Algorithme d’exploration
ou de planification
Agent basé sur l’utilité
17
function Utility-Agent (percept) return action
static : current world state
rules
State= update-state (state, percept)
Do { rule = rule-match(state, rules)
action = rule-action (rule)
state= update=state(state-action)
} while (not goals?<-state)||(not good quality)
Return action
Exemple: - Un agent avec buts peut trouver la sortie (but : succès ou échec) MAIS
- un agent avec utilité peut trouver le chemin le plus court pour la sortie (degré de succès)
Agent apprenant
Agent simple
réflexe
Agent réflexe
avec état interne
Agent basé
sur l’utilité
Agent basé
sur le but
Agent apprenant
18
Pour de nombreux problèmes (Reconnaissance faciale, robot à très haut degré de
complexité), il est très difficile de spécifier explicitement le comportement de
l’agent à la conception.  Concevoir des agents apprenants.
L’apprentissage permet:
– de simplifier la conception
– à l’agent d’avoir plus de flexibilité
– à l’agent d’agir dans des environnements
inconnus et devenir meilleur avec le temps.
Avantage : Capable de modifier ou d’améliorer son
comportement en fonction de ses expériences précédentes.
Module de performance
• Connaissances et procédures pour
choisir les actions.
(constituait la totalité de l’agent)
Critique
• Observe l’agent et donne des
informations au module
d’apprentissage.
Module d’apprentissage
• Modifie le module de performance.
Générateur de problèmes
• Identifie les possibilités
d’amélioration et suggère des
expérimentations.
19
Agent taxi apprenant
Module de performance
• Le taxi fait des actions sur la route comme
tourner subitement à gauche.
Critique
• Observe le mécontentement des autres conducteurs;
il avertit alors le module d’apprentissage.
Module d’apprentissage
• Élabore une règle qui améliore les actions et le module
de performance est modifié pour une autre règle.
Générateur de problèmes
• Détecte un besoin d’amélioration est suggère
d’expérimenter d’autres façons de faire sur d’autres
conditions de la route ( ex. conduite sur la neige)
20
Architectures d’agents
Agent réactif Agent cognitif
Simple. Ne possédant pas de
représentation explicite de son
environnement
Dispose d’une capacité de
raisonnement sur une base de
connaissances
Doté d’un comportement primitif
(Stimulus/Action)
Dispose d’aptitudes à traiter des
informations diverses en interaction
avec d’autres agents
Une société d’agents réactifs fait
émerger un comportement global
intelligent. (ex. Colonie de fourmis)
Des capacités décisionnelles
(ex. Robot planificateur)
21
Agent réactif : Architecture de Subsomption
Fondée sur des couches organisées par priorité de
bas en haut en modules à comportement limité.
Exemple: Un robot d’exploration de la planète Mars
M0 : Module pour éviter les obstacles ;
M1 : Module de déplacement dans l'environnement tout
en évitant les obstacles avec M0 ;
M2 : Module qui a la compétence supérieure, la plus
abstraite, de faire l'exploration de la planète en se
déplaçant grâce aux actions du module M1.
22
Agent cognitif : Architecture BDI (Belief, Desire, Intention)
23
Croyance: Informations sur l’environnement
Désirs: Etat final désiré
Intention: Actions à faire pour réaliser désir
Mécanisme de contrôle d’un agent BDI :
‒ Perception des modifications dans
l’environnement.
‒ Mise à jour des croyances
‒ Prise en compte des désirs à satisfaire
‒ Production d’intentions génératrices d’actions
dans l’environnement.
Exemple agent BDI: Système de contrôle du trafic aérien OASIS
(Aéroport de Sydney – Australie )
24
Quelques applications
• Finance : Agent investisseur
• Robotique: explorer, éviter les obstacles, plus court chemin
• Jeux : Jeux d’échecs
• Recherche d’information : crawler ( robot d’indexation)
• Veille et recommandation : Recommandation de produits
• Traitement du langage naturel : Traduction automatique
• Analyse d’images : Satellite, médicales
• E-learning: Tuteur interactif, apprentissage langue, ...
25
Pour chacun des exemples d’agents suivants, dites quel type d’agent et le
plus approprié (simple réflexe, réflexe avec état interne, but et utilité)
a. Un agent contrôlant une valve de pression d’une centrale nucléaire.
b. Un agent devant sortir d’un labyrinthe.
c. Un agent conduisant une automobile.
d. Un agent qui achète et vend des actions sur internet.
e. Un agent qui nettoie la vaisselle et la range dans les armoires.
Exercice
26

Contenu connexe

Tendances

Architecture des Systèmes Multi-Agents
Architecture des Systèmes Multi-Agents Architecture des Systèmes Multi-Agents
Architecture des Systèmes Multi-Agents Rached Krim
 
Une approche multi-agents pour la détection de contours
Une approche multi-agents pour la détection  de contoursUne approche multi-agents pour la détection  de contours
Une approche multi-agents pour la détection de contoursSlim Namouchi
 
L’optimisation par essaims de particules
L’optimisation par essaims de particulesL’optimisation par essaims de particules
L’optimisation par essaims de particuleschagra bassem
 
Intelligence artificielle etroite introduction
Intelligence artificielle etroite introductionIntelligence artificielle etroite introduction
Intelligence artificielle etroite introductionSmals
 
Merise+ +exercices+mcd+-+corrigés
Merise+ +exercices+mcd+-+corrigésMerise+ +exercices+mcd+-+corrigés
Merise+ +exercices+mcd+-+corrigésMajid CHADAD
 
Les systèmes experts
Les systèmes expertsLes systèmes experts
Les systèmes expertsBruno Delb
 
BigData_TP2: Design Patterns dans Hadoop
BigData_TP2: Design Patterns dans HadoopBigData_TP2: Design Patterns dans Hadoop
BigData_TP2: Design Patterns dans HadoopLilia Sfaxi
 
COURS INTELLIGENCE ARTIFICIELLE.pptx
COURS INTELLIGENCE ARTIFICIELLE.pptxCOURS INTELLIGENCE ARTIFICIELLE.pptx
COURS INTELLIGENCE ARTIFICIELLE.pptxPROF ALAIN NDEDI
 
Systeme embarque td1
Systeme embarque td1Systeme embarque td1
Systeme embarque td1SinGuy
 
Intelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de rechercheIntelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de rechercheMohamed Heny SELMI
 
Ch3 sma-architectures-2012
Ch3 sma-architectures-2012Ch3 sma-architectures-2012
Ch3 sma-architectures-2012Sofia Zahid
 
T1 corrections-qcm
T1 corrections-qcmT1 corrections-qcm
T1 corrections-qcminfcom
 

Tendances (20)

Architecture des Systèmes Multi-Agents
Architecture des Systèmes Multi-Agents Architecture des Systèmes Multi-Agents
Architecture des Systèmes Multi-Agents
 
Une approche multi-agents pour la détection de contours
Une approche multi-agents pour la détection  de contoursUne approche multi-agents pour la détection  de contours
Une approche multi-agents pour la détection de contours
 
1.sma
1.sma1.sma
1.sma
 
L’optimisation par essaims de particules
L’optimisation par essaims de particulesL’optimisation par essaims de particules
L’optimisation par essaims de particules
 
Algorithme knn
Algorithme knnAlgorithme knn
Algorithme knn
 
A star
A starA star
A star
 
Intelligence artificielle etroite introduction
Intelligence artificielle etroite introductionIntelligence artificielle etroite introduction
Intelligence artificielle etroite introduction
 
Merise+ +exercices+mcd+-+corrigés
Merise+ +exercices+mcd+-+corrigésMerise+ +exercices+mcd+-+corrigés
Merise+ +exercices+mcd+-+corrigés
 
States machines (1)
States machines (1)States machines (1)
States machines (1)
 
Les systèmes experts
Les systèmes expertsLes systèmes experts
Les systèmes experts
 
BigData_TP2: Design Patterns dans Hadoop
BigData_TP2: Design Patterns dans HadoopBigData_TP2: Design Patterns dans Hadoop
BigData_TP2: Design Patterns dans Hadoop
 
Chapitre3 prog dsplf3
Chapitre3 prog dsplf3Chapitre3 prog dsplf3
Chapitre3 prog dsplf3
 
COURS INTELLIGENCE ARTIFICIELLE.pptx
COURS INTELLIGENCE ARTIFICIELLE.pptxCOURS INTELLIGENCE ARTIFICIELLE.pptx
COURS INTELLIGENCE ARTIFICIELLE.pptx
 
Systeme embarque td1
Systeme embarque td1Systeme embarque td1
Systeme embarque td1
 
Poly
PolyPoly
Poly
 
Intelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de rechercheIntelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de recherche
 
Chap1: Cours en C++
Chap1: Cours en C++Chap1: Cours en C++
Chap1: Cours en C++
 
Systeme embarque
Systeme embarqueSysteme embarque
Systeme embarque
 
Ch3 sma-architectures-2012
Ch3 sma-architectures-2012Ch3 sma-architectures-2012
Ch3 sma-architectures-2012
 
T1 corrections-qcm
T1 corrections-qcmT1 corrections-qcm
T1 corrections-qcm
 

Similaire à Agents intelligents

IA_Infotel_2021_01.pdf
IA_Infotel_2021_01.pdfIA_Infotel_2021_01.pdf
IA_Infotel_2021_01.pdfrdsngqbjgdhf
 
3. Recherche utilisateur
3. Recherche utilisateur3. Recherche utilisateur
3. Recherche utilisateurLaurent Barbat
 
A heuristic multi-agents model to solve the TSP
A heuristic multi-agents model to solve the TSPA heuristic multi-agents model to solve the TSP
A heuristic multi-agents model to solve the TSPMnasri Sami
 
Gl slides-cours-1
Gl slides-cours-1Gl slides-cours-1
Gl slides-cours-1Sami Neili
 
Cours 1 : introduction a l'ergonomie logicielle
Cours 1 :  introduction a l'ergonomie logicielleCours 1 :  introduction a l'ergonomie logicielle
Cours 1 : introduction a l'ergonomie logicielleludolmn
 
Séminaire IA & VA- Dominique Gruyer, Univ Gustave Eiffel
Séminaire IA & VA- Dominique Gruyer, Univ Gustave EiffelSéminaire IA & VA- Dominique Gruyer, Univ Gustave Eiffel
Séminaire IA & VA- Dominique Gruyer, Univ Gustave EiffelMahdi Zarg Ayouna
 
conduite_et_management_de_projet_9.pdf
conduite_et_management_de_projet_9.pdfconduite_et_management_de_projet_9.pdf
conduite_et_management_de_projet_9.pdfKawtarBahlouLi1
 
Mise en pratique de méthodes de créativité - Thierry Hirtz et Sabina Klimentova
Mise en pratique de méthodes de créativité - Thierry Hirtz et Sabina KlimentovaMise en pratique de méthodes de créativité - Thierry Hirtz et Sabina Klimentova
Mise en pratique de méthodes de créativité - Thierry Hirtz et Sabina KlimentovaFlupa
 
Conférence bioteams curitiba (Version française)
Conférence bioteams curitiba (Version française)Conférence bioteams curitiba (Version française)
Conférence bioteams curitiba (Version française)Claude Emond
 
Réussir son analyse des besoins dans la conduite d'un projet informatique (2007)
Réussir son analyse des besoins dans la conduite d'un projet informatique (2007)Réussir son analyse des besoins dans la conduite d'un projet informatique (2007)
Réussir son analyse des besoins dans la conduite d'un projet informatique (2007)Ardesi Midi-Pyrénées
 
Concepts methodes
Concepts methodesConcepts methodes
Concepts methodesmsk10
 
Le progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquencesLe progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquencesFernando Alcoforado
 

Similaire à Agents intelligents (20)

IA_Infotel_2021_01.pdf
IA_Infotel_2021_01.pdfIA_Infotel_2021_01.pdf
IA_Infotel_2021_01.pdf
 
Intro IA.pdf
Intro IA.pdfIntro IA.pdf
Intro IA.pdf
 
3. Recherche utilisateur
3. Recherche utilisateur3. Recherche utilisateur
3. Recherche utilisateur
 
A heuristic multi-agents model to solve the TSP
A heuristic multi-agents model to solve the TSPA heuristic multi-agents model to solve the TSP
A heuristic multi-agents model to solve the TSP
 
sma.pdf
sma.pdfsma.pdf
sma.pdf
 
Analyse et cahier des charges
Analyse et cahier des chargesAnalyse et cahier des charges
Analyse et cahier des charges
 
Gl slides-cours-1
Gl slides-cours-1Gl slides-cours-1
Gl slides-cours-1
 
Ch 01 poo
Ch 01 pooCh 01 poo
Ch 01 poo
 
Cours 1 : introduction a l'ergonomie logicielle
Cours 1 :  introduction a l'ergonomie logicielleCours 1 :  introduction a l'ergonomie logicielle
Cours 1 : introduction a l'ergonomie logicielle
 
Séminaire IA & VA- Dominique Gruyer, Univ Gustave Eiffel
Séminaire IA & VA- Dominique Gruyer, Univ Gustave EiffelSéminaire IA & VA- Dominique Gruyer, Univ Gustave Eiffel
Séminaire IA & VA- Dominique Gruyer, Univ Gustave Eiffel
 
Rémy génin - keynote
Rémy génin - keynoteRémy génin - keynote
Rémy génin - keynote
 
Novencia agile
Novencia agileNovencia agile
Novencia agile
 
conduite_et_management_de_projet_9.pdf
conduite_et_management_de_projet_9.pdfconduite_et_management_de_projet_9.pdf
conduite_et_management_de_projet_9.pdf
 
Mise en pratique de méthodes de créativité - Thierry Hirtz et Sabina Klimentova
Mise en pratique de méthodes de créativité - Thierry Hirtz et Sabina KlimentovaMise en pratique de méthodes de créativité - Thierry Hirtz et Sabina Klimentova
Mise en pratique de méthodes de créativité - Thierry Hirtz et Sabina Klimentova
 
L'environnement du projet (ppt)
L'environnement du projet (ppt)L'environnement du projet (ppt)
L'environnement du projet (ppt)
 
Conférence bioteams curitiba (Version française)
Conférence bioteams curitiba (Version française)Conférence bioteams curitiba (Version française)
Conférence bioteams curitiba (Version française)
 
Réussir son analyse des besoins dans la conduite d'un projet informatique (2007)
Réussir son analyse des besoins dans la conduite d'un projet informatique (2007)Réussir son analyse des besoins dans la conduite d'un projet informatique (2007)
Réussir son analyse des besoins dans la conduite d'un projet informatique (2007)
 
Concepts methodes
Concepts methodesConcepts methodes
Concepts methodes
 
#3 etapes projet
#3 etapes projet#3 etapes projet
#3 etapes projet
 
Le progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquencesLe progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquences
 

Agents intelligents

  • 1. Agents intelligents Badiâa Dellal-Hedjazi USTHB – Département d’Informatique 1
  • 2. Motivations 1) Résolution des problèmes 2) Apprentissage automatique 3) Compréhension du langage naturel 4) Raisonnement automatique 5) Systèmes experts... Remarque: Ces systèmes sont renfermés sur leur raisonnement et ignorent tout de leur environnement Mais : L’intelligence n’est pas une caractéristique individuelle que l’on peut séparer du contexte social. 2 Domaines de l’IA Définition IA: La construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains. • L’intelligence est également le produit de l’interaction avec l’environnement. • Un comportement intelligent émerge de l’interaction de comportements plus simples. Définition de l’IA: L’IA est considérée comme la science de la conception d’agents intelligents.
  • 3. Le paradigme Agent Un agent est un système informatique situé dans un environnement qu’il peut percevoir et sur lequel il peut agir. Exemples: Agent logiciel: Agenda électronique Agent matériel: Robot 3
  • 4. 4
  • 5. Fonction et programme agent Le programme agent est une implémentation de la fonction agent. Il associe à la perception actuelle l’action adéquate. La fonction agent spécifie l’action qu’il exécute en réponse à une séquence de percepts donnée. Monde de l’aspirateur 2 salles, un robot aspirateur et de la saleté Actions: Droite ; Gauche ; Aspirer ; Rien 5
  • 6. Rationalité des agents Le succès d’un agent est évalué par une mesure de performance: • une fonction objective mesurant la qualité d’un comportement de l’agent Exemple: Mesure de performance pour un agent aspirateur • le volume de saleté ramassée • le temps pris • l’électricité consommée, • le bruit produit, etc. Rationalité ≠ Omniscience (tout savoir avec des connaissances sans limite) 2) Agent autonome S’il est capable d’adapter son comportement aux changements dans l’environnement (capable d’apprendre, de planifier, de raisonner) 6 1) Un agent rationnel est un agent qui agit d’une manière lui permettant d’obtenir le plus de succès possible dans la réalisation des tâches qu’on lui a assignées.
  • 8. PEAS : Voiture autonome 8
  • 9. PEAS : Système de diagnostic médical ●Mesure de performance: Rétablissement des patients, Minimisation coûts. ●Environnement : Patient, hôpital, personnel ●Effecteurs: Affichage de questions, tests , diagnostics, traitements ●Capteurs : Entrée au clavier de symptômes, observations, réponses patient9
  • 10. PEAS : Monde du Wumpus 10  Mesure de performance  or +1000, mort -1000  -1 par un pas, -10 pour une flèche  Environnement  Puanteur dans les chambres adjacent au wumpus.  Brise dans les chambres adjacentes à une fosse  Scintillement si l’or est dans la chambre  Le wumpus meurt si on lui tire une flèche de face  On a une seule flèche  On peut ramasser l’or dans la même chambre  On peut lâcher l’or dans une chambre  Senseurs: stench (puanteur), breeze (brise), glitter (scintillement), bumper (choc), scream (cri).  Actuateurs (Effecteurs): : tourne gauche, tourne droite, avance, saisit, tire
  • 11. Propriétés de l’environnement 1. Complètement observable vs Partiellement observable: L’agent perçoit l’état complet de l’environnement à tout moment. Ex. Jeux d’échecs : CO / Voiture autonome : PO 2. Déterministe vs Stochastique: Le prochain état de l’environnement est complètement déterminé par son état courant et l’action de l’agent ? Ex. Robot aspirateur : D / Voiture autonome : S 3. Épisodique vs Séquentiel: Un épisode est une seule séquence perception-action. Le prochain épisode ne dépend pas des actions effectuées dans les épisodes précédents. Ex. Détection pièces défectueuses dans une chaine de montage: E / Voiture autonome: S 4. Statique vs Dynamique: L’environnement ne change pas pendant que l’agent délibère. Ex. Agent de Mots-croisés : S / Voiture autonome : D 5. Discret vs Continu: La distinction discret/continu peut être appliquée à l’état de l’environnement, à la façon dont le temps est géré, et aux perceptions et aux actions de l’agent. Ex. Jeux d’échecs : D / Voiture autonome : C 6. Un agent vs Multi-agents : Est-ce qu’il y a plus qu’un agent interagissant ensemble ? Ex. Agent de Mots-croisés : A / Jeux d’échecs: M 11
  • 12. Types d’agents •Agent réflexe simple (Simple reflex agent) •Agent réflexe avec état interne (Model-based reflex agent) •Agent basé sur les buts (Goal-based agent) •Agent basé sur l’utilité (Utility-based agent) •Agent apprenant (Learning agent) 12
  • 15. Agent réflexe avec état interne 15 Exemple: Peut résoudre un labyrinthe Avantage : Evite les boucles infinies
  • 16. 16 Exemple: Peut résoudre n’importe quel labyrinthe. Avantage : On peut changer de but sans réécrire toutes les règles. Agent basé sur les buts function Goal-Agent (percept) return action Static: current world state rules State = update-state-(state, percept) Do { rule = rule-match(state; rules) action= rule-action(rule) state=update-state(state, action)} while (not goals?<-state) Return action Algorithme d’exploration ou de planification
  • 17. Agent basé sur l’utilité 17 function Utility-Agent (percept) return action static : current world state rules State= update-state (state, percept) Do { rule = rule-match(state, rules) action = rule-action (rule) state= update=state(state-action) } while (not goals?<-state)||(not good quality) Return action Exemple: - Un agent avec buts peut trouver la sortie (but : succès ou échec) MAIS - un agent avec utilité peut trouver le chemin le plus court pour la sortie (degré de succès)
  • 18. Agent apprenant Agent simple réflexe Agent réflexe avec état interne Agent basé sur l’utilité Agent basé sur le but Agent apprenant 18 Pour de nombreux problèmes (Reconnaissance faciale, robot à très haut degré de complexité), il est très difficile de spécifier explicitement le comportement de l’agent à la conception.  Concevoir des agents apprenants. L’apprentissage permet: – de simplifier la conception – à l’agent d’avoir plus de flexibilité – à l’agent d’agir dans des environnements inconnus et devenir meilleur avec le temps.
  • 19. Avantage : Capable de modifier ou d’améliorer son comportement en fonction de ses expériences précédentes. Module de performance • Connaissances et procédures pour choisir les actions. (constituait la totalité de l’agent) Critique • Observe l’agent et donne des informations au module d’apprentissage. Module d’apprentissage • Modifie le module de performance. Générateur de problèmes • Identifie les possibilités d’amélioration et suggère des expérimentations. 19
  • 20. Agent taxi apprenant Module de performance • Le taxi fait des actions sur la route comme tourner subitement à gauche. Critique • Observe le mécontentement des autres conducteurs; il avertit alors le module d’apprentissage. Module d’apprentissage • Élabore une règle qui améliore les actions et le module de performance est modifié pour une autre règle. Générateur de problèmes • Détecte un besoin d’amélioration est suggère d’expérimenter d’autres façons de faire sur d’autres conditions de la route ( ex. conduite sur la neige) 20
  • 21. Architectures d’agents Agent réactif Agent cognitif Simple. Ne possédant pas de représentation explicite de son environnement Dispose d’une capacité de raisonnement sur une base de connaissances Doté d’un comportement primitif (Stimulus/Action) Dispose d’aptitudes à traiter des informations diverses en interaction avec d’autres agents Une société d’agents réactifs fait émerger un comportement global intelligent. (ex. Colonie de fourmis) Des capacités décisionnelles (ex. Robot planificateur) 21
  • 22. Agent réactif : Architecture de Subsomption Fondée sur des couches organisées par priorité de bas en haut en modules à comportement limité. Exemple: Un robot d’exploration de la planète Mars M0 : Module pour éviter les obstacles ; M1 : Module de déplacement dans l'environnement tout en évitant les obstacles avec M0 ; M2 : Module qui a la compétence supérieure, la plus abstraite, de faire l'exploration de la planète en se déplaçant grâce aux actions du module M1. 22
  • 23. Agent cognitif : Architecture BDI (Belief, Desire, Intention) 23 Croyance: Informations sur l’environnement Désirs: Etat final désiré Intention: Actions à faire pour réaliser désir Mécanisme de contrôle d’un agent BDI : ‒ Perception des modifications dans l’environnement. ‒ Mise à jour des croyances ‒ Prise en compte des désirs à satisfaire ‒ Production d’intentions génératrices d’actions dans l’environnement.
  • 24. Exemple agent BDI: Système de contrôle du trafic aérien OASIS (Aéroport de Sydney – Australie ) 24
  • 25. Quelques applications • Finance : Agent investisseur • Robotique: explorer, éviter les obstacles, plus court chemin • Jeux : Jeux d’échecs • Recherche d’information : crawler ( robot d’indexation) • Veille et recommandation : Recommandation de produits • Traitement du langage naturel : Traduction automatique • Analyse d’images : Satellite, médicales • E-learning: Tuteur interactif, apprentissage langue, ... 25
  • 26. Pour chacun des exemples d’agents suivants, dites quel type d’agent et le plus approprié (simple réflexe, réflexe avec état interne, but et utilité) a. Un agent contrôlant une valve de pression d’une centrale nucléaire. b. Un agent devant sortir d’un labyrinthe. c. Un agent conduisant une automobile. d. Un agent qui achète et vend des actions sur internet. e. Un agent qui nettoie la vaisselle et la range dans les armoires. Exercice 26