Ch3 sma-architectures-2012

2 331 vues

Publié le

ce cours concerne l'architecture des systèmes multi-agents

Publié dans : Ingénierie
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
2 331
Sur SlideShare
0
Issues des intégrations
0
Intégrations
5
Actions
Partages
0
Téléchargements
79
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Ch3 sma-architectures-2012

  1. 1. SMA ARCHITECTURES
  2. 2. Génie logiciel Systèmes Répartis Intelligence Artificielle Génie Informatique Paradigme Objet Technologies Réseaux Métaphore Biologique Métaphore Sociologique
  3. 3. Le choix d'une décomposition Etant donné un pb à résoudre, comment choisir les agents qui vont intervenir dans le système et comment leur répartir la compétence?  Grand nombre de décompositions possibles – objet – spatiale – fonctionnelle – etc. Différents grains possibles – société – individu – organe – cellule – atome – ...
  4. 4. 4 Point de vue Agent Organisation IA connaissances et croyances savoir-faire et intentions communication conflits et cohérence contrôle et coordination Vie Artificielle comportement perception adaptation couplage à l'environnement influences et dépendances co-détermination individu/collectif Génie Logiciel encapsulation héritage distribution ouverture
  5. 5. Les différents concepts et composants d’un SMA Problème central : de quel comportement doter les agents et comment les faire interagir entre eux et avec l’environnement pour répondre au «problème» posé ? Méthode «Voyelle» : définir les composants d’un système multi-agents selon : •Agents, •Environnement, •Interaction •Organisation •(Utilisateur) : cf cours Anne Boyer «Assistant Intelligent»
  6. 6. Le choix d'un modèle d'agent Agents cognitifs - Intelligence Artificielle Distribuée agent = métaphore psychologique – connaissance décrite en termes d’états mentaux – comportement intentionnel (buts et plans explicites) système = métaphore sociologique Agents réactifs - Vie Artificielle agent = métaphore animale – connaissances réduites à l’association de stimuli et de réponses – comportement dirigé par les perceptions système = métaphore socio-biologique
  7. 7. Agents L'agent (Ferber 95) – entité réelle ou virtuelle plongée dans un environnement sur lequel elle est capable d'agir, – qui dispose d'une capacité de perception et de représentation partielle de cet environnement – qui peut communiquer avec d'autres agents – qui est mue par un ensemble de tendances (objectifs individuels, fonctions de satisfaction, de survie) – qui possède un comportement autonome tendant à satisfaire ses objectifs, conséquence de ses observations, de sa connaissance, et des interactions qu'elle entretient avec les autres agents – qui est capable éventuellement de se reproduire • point de vue local, imparfait, incertain • ressources limitées • Adaptation & Apprentissage, Dépendance aux autres & Socialité
  8. 8. Une Recherche de Compromis Communication AutonomyAdaptation Il est autonome mais ouvert à la communication Il est autonome mais ouvert à l'adaptation Il s'adapte mais cherche à produire son point de vue
  9. 9. Modèles d'Agents Environnement Perception Action behaviour- based layer local planning layer cooperative planning layer KnowledgeAbstraction hierarchical agent knowledge base agent control unit social models mental models world models
  10. 10. • Agent purement situé: – l'environnement possède une métrique, – les agents sont situés à une position dans l'environnement qui détermine ce qu'ils perçoivent; – ils peuvent se déplacer; – il n'y a pas communications directes entre agents, elle se font via l'environnement • Agent purement communiquant: – il n'y a pas d'environnement au sens physique du terme, – les agents n'ont pas d'ancrage physique, – ils communiquent via des informations qui circulent entre les agents Concept 1 : Agent Situé ou Communiquant
  11. 11. Cognitif ou Réactif • Agent cognitif: – représentation explicite de l'environnement et des autres agents – peut tenir compte de son passé et dispose d'un but explicite – mode "social" d'organisation (planification, engagement) – petit nombre d'agents (10/20), hétérogènes à gros grain • Les relations entre agents s'établissent en fonction des collaborations nécessaires à la résolution du problème • Agent réactif: – pas de représentation explicite de l'environnement – pas de mémoire de son histoire, ni de but explicite – comportement de type stimulus réponse – mode "biologique "d'organisation – grand nombre d'agents (>100), homogènes à grain fin • La structure du système émerge des comportements et non d'une volonté d'organisation
  12. 12. Définir : - Architecture interne -Degré de couplage de l’agent à l’environnement on peut considérer plusieurs catégories d’agent : Fort réactif : Comportement dirigé par les changements de l’environnement hybride Faible délibératif (cognitif) Comportement dirigé par les buts à satisfaire Couplage à l’environnement
  13. 13. ARCHITECTURES: REACTIFS-COGNITIFS
  14. 14. Agents réactifs : Architecture à subsomptions(R. Brooks 1986) Architecture à subsomption (architecture interne) : la + connue des architectures d’agents réactifs 3 idées clés : comportement intelligent peut être généré (1) sans représentation explicite (à l’encontre de l’IA symbolique) (2) sans raisonnement abstrait explicite (à l’encontre de l’IA symbolique) (3) l’intelligence est une propriété émergente de certains systèmes complexes due aux interactions.
  15. 15. 2 caractéristiques : •La prise de décision d’un agent est réalisée à travers un ensemble de modules comportementaux correspondant à la tâche à réaliser. Comportement implémenté sous la forme de règles : situation →action •La résolution de conflit lorsque plusieurs comportements peuvent être déclenchés à un instant donné -arranger les modules d’action dans une hiérarchie de subsomptions selon différentes couches -les hauts niveaux peuvent inhiber les niveaux inférieurs
  16. 16. L’architecture de Subsomption fondée sur des couches organisées de bas en haut, à partir des organes sensorimoteurs, en une hiérarchie de modules à comportement limité. Chaque niveau a un rapport de dominance sur le module de niveau inférieur :
  17. 17. Exercice : les robots explorateurs L'objectif est de réaliser un collectif de robots pour explorer une planète éloignée. Le but de ces robots est de collecter des échantillons de minerai sur le sol. La localisation de ces échantillons est inconnue au départ. Les robots mémorisent la localisation de la base d'où ils viennent et où ils doivent ramener les minerais collectés. Ils n'ont pas de carte de la région à explorer, par contre ils savent que cette région comporte des obstacles infranchissables. Pour simplifier, on suppose qu'un robot possède une énergie lui permettant de fonctionner indéfiniment. (figure suivante) Dans le cadre de l'architecture à subsomption définir: - les règles ou modules comportementaux d’un robot ‘solitaire’ - la hiérarchie de subsomptions Même question pour un ensemble de robots coopératifs
  18. 18. Figure Problème
  19. 19. Réponses : modules comportementaux = Explorer Prélever Aller à la base Déposer Éviter obstacle
  20. 20. Modules comportementaux pour robot sous forme de règles (non coopératif) règle 1 : si détecte un obstacle alors changer de direction règle 2 : si porte un échantillon et à la base alors déposer l’échantillon règle 3 : si porte un échantillon et pas à la base alors suivre gradient (retour) règle 4 : si détecte un échantillon alors le prélever règle 5 : si vrai alors se déplacer aléatoirement Imaginons que le robot ait le choix entre la règle 1 et la règle3. Que doit-il faire ? Même question pour les règles 4 et 3.=> hiérarchie de déclenchement ?
  21. 21. Architecture à subsomptions Hiérarchie des priorités de déclenchement des modules d’action : règle1 > règle2 > règle3 > règle4 > règle5
  22. 22. Exemple d’implantation de l’architecture à subsomption Robots explorateurs de Mars (Steels89) Priorité Niveau 5 > priorité Niveau 4 > …
  23. 23. Exemple de règles pour robots coopératifs poser 2 marques au retour et enlever 1 à l’aller : la règle 3 est remplacée par : règle 3bis : si porte un échantillon et pas à la base alors lâcher 2 marques radioactives et suivre gradient (retour) => une nouvelle règle : règle 6 : si perçoit des marques alors retirer 1 marque et suivre le gradient (aller) Hiérarchie des priorités de déclenchement ?
  24. 24. La hiérarchie de comportements : règle1 > règle2 >règle3bis> règle4 >règle6> règle5 règle6 > règle 5 : le robot choisira préférentiellement de suivre une marque plutôt que de se déplacer aléatoirement.
  25. 25. Avec pose des marques ( Coopération)
  26. 26. Modèles en éthologie: I.R.M. • Konrad Lorenz (~1950, Innate Releasing Mechanism) • Modèle d' activation de comportement Autres Architectures
  27. 27. Niveau 1 - Niveau des principaux instincts (buts profonds) Ex: instinct reproductif Niveau 2 - Niveau des instincts secondaires (sous-buts) Ex:combat, soins aux jeunes, ... Niveau 3 - Comportements consommatoires (séquences fixes d'actions ) Ex:chasser, parader, menacer,.. Niveau 4, 5 et 6 - subdivisions d'actions de "base » (actions) Modèles en éthologie: Nikolaas Tinbergen  Modèle hiérarchique de sélection de comportements ( psychologie finaliste)  Distingue entre comportements appétitifs et consommatoires
  28. 28. Modèles : ANA  Patti Maes 91 - Agent Network Architecture  Modèle semi-hiérarchique de sélection d'actions Caractéristiques: • Mixte Ethologie / Vie Artificielle • Bien adapté à des agents ayant des comportements différents • Forte redondance des actions de base (flee-from-...) en cas de comportements similaires • Difficile à concevoir et à tester – multiplicité des liens – dynamique importante • Bonne ouverture à l'apprentissage – renforcement des liens
  29. 29. Modèles : EMF (l’EthoModeling Framework)  Modèle non hiérarchique de sélection de tâches (IRM + fixed action patterns) (sert de base pour le projet MANTA) EMF Proposé par A. Drogoul (1991-2000) ; Utilise le modèle d’activité instictive de Konrad Lorenz: Les fondements de l’ethologie, 1984, Champs Flammarion
  30. 30. Agents Réactifs
  31. 31. Agent cognitif versus Agent réactif •Représentation du monde Symbolique •Comportement Orienté but •Fondements I.A. (Denett, Bratman…) •Représentation du monde Sub-symbolique (perceptions) •Comportement Réflexe •Fondements Inspiration éthologique, bio,.. (Brooks) SMA Cognitifs : accent mis sur l'action, la décision et l'interaction dans un contexte collectif (inspiration socio-mimétique) Capacités d’apprentissage et d’adaptation à l’environnement
  32. 32. Agents cognitifs : architecture BDI «Beliefs, Desires, Intentions» Fondés sur des extensions de la logique, «Practical Reasoning» (raisonnement pratique) en philosophie Deux processus •Décider quels buts poursuivre : Quoi ? ⇔délibérations •Décider comment les réaliser : Comment ? ⇔means-end reasoning Analyse «des fins et des moyens» (Aristote) «BUT : Je veux emmener mon fils à l’école. Quelle est la différence entre ce que j’ai et ce que je veux ? une distance. Qu’est-ce qui change une distance ? Mon automobile. Mon automobile est en panne. De quoi ai-je besoin pour la faire fonctionner ? Une batterie neuve. Qui a des batteries neuves? Un garage. Je veux que le garage mette une batterie neuve; Le garage ne sais pas que je veux une batterie neuve. Quelle est la difficulté ? De communication. Qu’est-ce qui permet de communiquer ? Un téléphone …» Analyse sous forme de séquences : de fin, de fonction nécessaire et de moyen qui réalise cette fonction.
  33. 33. Agents cognitifs : architecture BDI «Beliefs, Desires, Intentions» Face à une décision : «Practical reasoning» •Avoir certaines informations, connaissances sur le problème («croyances») •Envisager les options possibles et les états que l’agent souhaite atteindre («desires»), les états peuvent être contradictoires •Choisir certains états à atteindre («Intentions»)
  34. 34. Mise à jour à partir des croyances et des perceptions Informations sur l’environnement courant Fonction déterminant les options possibles selon les intentions et les croyances Ensemble des options courantes Processus de délibération déterminant l’engagement vis à vis des intentions (abandon, maintien) Ensemble des intentions sur lesquelles se focalise l’agent Processus de sélection de l’action à exécuter Principe d’une architecture BDI
  35. 35. Agents Cognitifs 3APL DEMO
  36. 36. Agents Hybrides: Architecture multi-niveaux
  37. 37. Agent structuré en couches •Souvent, mais pas toujours, architectures délibératives •Prise de décision en séparant les niveaux software •Chaque couche raisonne à un niveau d’abstraction •Les couches interagissent Couches de 2 types : •Couches verticales : perception (in) et action (out) réalisées par une même couche •Couches horizontales : chaque couche est directement connectée à la perception (in) et l’action (out)
  38. 38. Conception par couches Typiquement, au moins 2 couches, une pour le comportement réactif et une pour le comportement proactif Possibilité de concevoir plusieurs couches Topologie: information et contrôle de flux entre plusieurs couches :
  39. 39. Horizontal Chaque couche agit comme un agent : indépendance, simplicité pour n comportements différents, on implémente n couches compétition entre couches : gestion des incohérences Besoin d’une médiation entre couches : complexité grande, et contrôle difficile. Vertical Complexité faible, pas de goulot d’étranglement au niveau du contrôle. Moins flexible et peu tolérante aux fautes : une décision nécessite tous les niveaux. Couches : Avantages et inconvénients
  40. 40. Exemple: TOURINGMACHINES (Innes A. Ferguson 92)
  41. 41. TOURINGMACHINES  3 couches produisent des suggestions d’action •Réactive : implémente des règles de situation-action comme dans l’architecture de subsumption de Brooks •Planification : réalise la proactivité via des plans basés sur une librairie de squelettes de plans •Modélisation : modèle du monde, autres agents, soi, prédit les conflits, génère des buts et les résout.  Domaine d’utilisation : véhicules multiples
  42. 42. Exemple: INTERRAP (Integration of Reactive Behavior and Rational Planning)
  43. 43. INTERRAP Architecture en couches verticale, avec 2 passes Les couches ont le même fonctionnement que dans la TOURINGMACHINES Chaque couche est associée à une base de connaissances Les couches interagissent : De bas vers le haut (bottom-up) : activation De haut vers le bas (top-down) : exécution
  44. 44. Concept 2 : Interaction Définitions •Toute action (ou ensemble de) qui affecte l’agent dans la réalisation de son but, de sa tâche. •Mise en relation dynamique de deux ou de plusieurs agents par le biais d’un ensemble d’actions réciproques. •Existence d’une interaction lorsque la dynamique propre d’un agent est perturbée par les influences des autres Exemples •Construction d’une maison par plusieurs ouvriers •Collision de voitures •Mise en commun d’expertises
  45. 45. Le choix de techniques de coordination Motivations capacités individuelles insuffisantes (ex: charges trop lourdes à transporter) cohérence (réguler les conflits sémantiques: buts contradictoires, accès aux ressources...) efficacité, traitement de l'incertain recomposition des résultats - solutions partielles Techniques planification centralisée, semi-centralisée (synchronisation de plans individuels), décentralisée synchronisation d'accès aux ressources – algorithmique répartie – règles sociales négociation – numérique, symbolique (agrégation, argumentation), démocratique (vote, arbitrage), utilitarisme (théorie des jeux) sans communication explicite – environnement, reconnaissance d'intentions
  46. 46. Situations d’interaction Classement des situations d’interaction selon les buts, les ressources et les compétences des agents : •Buts compatibles ou incompatibles •Ressources suffisantes ou insuffisantes •Compétences suffisantes ou insuffisantes ⇒Indifférence, coopération, antagonisme
  47. 47. Classement des situations d’interactions (Ferber 95) Indifférence, , Coopérationou ou Antagonisme
  48. 48. Le choix d'un modèle de communication  Environnement perception / action (ex: consommation de ressources) traces (ex: phéromones)  Symbolique (messages) médium (réseau, voix, vision) participants – individuel - point à point – partagé - multicast – global - broadcast – publish / subscribe (événements)  Actes de langage "dire c'est faire" : des phrases ne sont pas vraies ou fausses, elles constituent des actions de langage La communication est pragmatique – elle explique généralement ce qui est accompli plus que ce à quoi cela se réfère – demander de faire quelque chose est une manière d’atteindre un but
  49. 49. La Communication : un moyen de gérer les interactions  Problématique de la communication Quelques questions à se poser : •Avec qui les agents communiquent-ils ? Communication sélective ou diffusée (cf réseau d’accointances) •Pourquoi les agents communiquent-ils ? Coopération et coordination d’actions ou négociation (coordination : éviter les activités redondantes négociation : c’est l’inverse de la coordination, surtout en environnement compétitif ou avec des agents concurrents ou égoïstes) •Quand les agents communiquent-ils ? Demande ou besoin d’un agent, … •Que communiquent-ils ? Croyances, intentions, tâches, … •Comment les agents communiquent-ils ? Langage de communication compréhensible
  50. 50. 2 types de communication : •Communication indirecte : Partage d’informations - via un tableau noir, - via l’environnement : phéromones, modification de l’environnement + capteurs •Communication directe (interaction délibérative): - Envoi de messages point à point, diffusion totale, restreinte, … -Suppose différentes compétences au sein d’un agent: d’envoi, de réception, d’ interprétation
  51. 51. Fondements de la communication directe: Sources multiples :Linguistique, philosophie du langage, psychologie cognitive et sociale, sociologie Linguistique informatique, intelligence artificielle (cfcours TAL en M1 SCA de G. Perrier, L Knittel) Pragmatique conversationnelle [Habermas] (cfcours « pragmatique du langage » en L3 de F. Duval ) Intention dans les communications •Prise en compte des états mentaux (ex : BDI)(cfcours « philosophie de l’esprit » en L3 ISC de M. Rebuschi) Théorie des actes de langages(Speech Acts) [Austin 62, Searle 72, Vanderveken88](cfcours « interaction langagière » en L3 Sciences Code C. Brassac)
  52. 52. Actes de langage (Aperçu) Théories des actes de langages sont des théories relatives à l’utilisation du langage (pragmatique) Cadre d’analyse des échanges inter humains « How to do things with words» (« Quand dire c’est faire ») [Austin 62] ⇒Toute communication est faite avec l’objectif de satisfaire un but, une intention Intention pas toujours évidente : «j’ai froid» peut signifier «ferme la porte», «donne moi mon pull» (requêtes déguisées), «il fait froid» (affirmation)
  53. 53. Actes de langages On distingue trois composantes à l’acte 1.acte locutoire: production d’une suite de signes selon les règles syntaxiques d’un langage donné (acte de dire quelque chose ) 2. acte illocutoire: acte réalisé en produisant une suite de signes dans un contexte donné, exprimant une intention (⇒intention du locuteur) noté A=F(P)  Acte=Force(Proposition), P le contenu propositionnel et F la force illocutoire. 3. acte perlocutoire: elle porte sur les effets de l’acte vis à vis du destinataire (changement d’état interne, action, …) (⇒conséquence, effet sur le destinataire)
  54. 54. Actes de langages : verbes performatifs Typage des messages: Utilisation d’un champ «force illocutoire» à l’aide de verbes performatifs pour restreindre les ambiguïtés d’un message •Exemples : convaincre, promettre, ordonner Exemples de classes de force: •Assertif (assertion ou fait) : penser, affirmer, dire, informer •Directif (commande) : demander, avertir, réclamer, supplier •Commissif (engagement) : promettre, garantir, refuser •Déclaratif (assertion ou fait) : déclarer, stipuler, ratifier •Expressif (expression d’émotion) : féliciter, excuser, approuver, déplorer
  55. 55. Actes de langages : Succès et satisfaction Accomplissement associé à des conditions de succès et de satisfaction .Indiquent dans quel cadre l’acte réussit. conditions de succès: •ce qui doit être vérifié dans le cadre de l’énonciation •s’appuient principalement sur F Ex : l’acte de communication est réussi si le destinataire a compris qu’il fallait fermer la porte, mais l’acte n’est pas forcément satisfait … conditions de satisfaction: •aspect perlocutoire: tiennent compte de l’état du monde résultant de l’acte. •s’appuient principalement sur P et sa valeur de vérité. Ex : l’acte est satisfait si le destinataire ferme effectivement la porte
  56. 56. Langages de communication basés sur les actes de langage Actes de langage = Théorie abondamment utilisée pour spécifier comment communiquer entre agents Définition de langages de communication entre agents = ACL (Agent communication Language) : KQML(Knowledge Query and Manipulation Language) , etc.  KQML •Définition d’un ensemble de performatifs •Principalement assertifs et directifs •Possibilité d’utiliser différents langages d’expression du contenu échangé : KIF, LISP, PROLOG, KQML (imbrication de messages KQML) •Permet d’inclure dans le message tout ce qui est nécessaire à sa compréhension
  57. 57. KQML Syntaxe à 3 niveaux : •Message : pour spécifier le type d’acte (performatif), le langage d’ expression du message (PROLOG, ..),,et l’ontologie (spécification de vocabulaire, d’objets, de concepts et de relations dans un domaine d’intérêt ) •Communication : pour identifier l’émetteur le récepteur et le message •Contenu
  58. 58. KQML
  59. 59. Un Exemple (inform :sender A :receiver B :reply-with laptop :language KIF :ontology ordinateurs :content (=(prix HP-Jet) (scalar 1500 USD)) :reply-by 10 :conversation-id conv01 ) Sender: l’émetteur du message Receiver:le destinataire du message reply-with: identificateur unique du message, en vue d'une référence ultérieure Language: le langage dans lequel le contenu est représenté Ontology: le nom de l'ontologie utilisé pour donner un sens aux termes utilisés dans le content Content: le contenu du message (l’information transportée par la performative) reply-by: impose un délai pour la réponse conversation-id: identificateur de la conversation
  60. 60. KQML  Permettre aux agents cognitifs de coopérer  Indépendant du mécanisme de transport (TCP/IP, SMTP, ou autre) Indépendant du langage du contenu échangé (KIF, SQL, Prolog ou autre) Indépendant de l'ontologie utilisée => Peu de contraintes de développement Mais … Manque de certains performatifs (ex: engagement) Incohérence ou inutilité de certains performatifs  Ambiguité et imprécision Manque de définition et de formalisation Pas de cadre pour gérer les agents Solution ? Premier pas vers la normalisation d’un ACL: Définition d’un ensemble minimum de performatifs avec possibilité de les composer ⇒ FIPA (Fundation for Intelligent Physical Agents: www.fipa.org )
  61. 61. ACL FIPA
  62. 62. KIF en quelques mots •Knowledge Interchange Format (effort DARPA) •Langage de description •Lisible par une machine et un humain •version préfixée du calcul des prédicats du 1erordre. •une spécification pour la syntaxe •une spécification pour la sémantique. •Exemples: devinez ce qui est exprimé? •(> (* (width chip1) (length chip1)) (*(width chip2) (length chip2))) ouencore •(=> (and (real-number?x) (even-number?n)) (> (expt?x?n) 0)))
  63. 63. Concept 3 : Environnement 􀂾Environnement du SMA: « espace » commun aux agents du système, doté d’un ensemble d’objets du problème 􀂾Environnement d’un agent: ce qui est extérieur à l’ agent = l’environnement du SMA + la représentation des autres agents dans le monde --- ET les Caractéristiques déjà vues ……………………………….
  64. 64. Environnement 1. Spécification de l’environnement Première étape lors de la conception d’un agent : déterminer l’environnement de la tâche. Cette conception comprend : - P : mesure de la performance - E : environnement de l’agent (le monde (contexte) dans lequel il évolue) - A : effecteurs - S : capteurs Exemple du taxi automatique : - P = sécurité, vitesse, respect des lois, confort, profits,… - E = routes, autres véhicules, piétons, clients,… - A = volant, accélérateur, frein, clignotant, klaxon,… - S = caméras, sonar, indicateur de vitesse, capteurs du moteur,… Intelligence Artificielle IAD/SMA
  65. 65. -Complètement/partiellement observable • Complètement observable si on observe effectivement l’environnement entier, ou au moins toutes les informations nécessaires à l’agent pour prendre une décision. • Partiellement si il y a du bruit ou si une partie du monde est simplement masquée (l’aspirateur ne peut pas savoir s’il y a de la saleté en B quand il est en A). -Déterministe/stochastique • On parle du point de vue de l’agent ! Un monde déterministe mais dont l’observation est partielle pourra paraître stochastique à l’agent. • Un monde est déterministe pour l’agent si le prochain état ne dépend que de l’état actuel et de l’action que l’agent va réaliser. • Si le monde est déterministe à la seule exception des autres agents, il est dit stratégique. 2. Propriétés de l’environnement Intelligence Artificielle IAD/SMA
  66. 66. - Épisodique/séquentiel • Episodique : le changement d’état de l’environnement ne dépend que de son état actuel, et pas des états passés (pas de planification possible). • Séquentiel : une décision prise à un moment donné va avoir un impact dans le futur (taxi, échecs). Les environnements épisodiques sont plus simples à gérer. - Statique/dynamique • Dynamique : l’environnement peut changer même si l’agent ne fait rien (taxi automatique). • Statique : le contraire. Plus simple à gérer car l’agent n’a pas à surveiller le monde en permanence (mots-croisés. • Semi-dynamique : l’environnement ne change pas au cours du temps, mais l’évaluation de sa performance oui (échecs chronométrés). Intelligence Artificielle IAD/SMA
  67. 67. - Discret/continu • La distinction peut s’appliquer : -A l’état du monde. -A la façon de gérer le temps. -Aux percepts. -Aux actions. • Ex : jeu d’échecs est discret pour tout sauf le temps. Taxi est continu pour tout - Mono-agent/Multi-agent • On parle du point de vue de l’agent • Il peut être plus efficace en termes de performance de considérer un agent (extérieur) comme un objet ayant un comportement aléatoire. • Compétition : multi-agents entrant en conflit (jeu d’échecs). • Coopération : multi-agents oeuvrant ensemble (taxi automatique et les autres véhicules (partiellement coopératifs)). Intelligence Artificielle IAD/SMA
  68. 68. Propriétés de l’environnement Situation la plus difficile: –Partiellement observable –Stochastique –Séquentielle –Dynamique –Continue –Multi-agent Exemple: conduite automatisée d’un taxi Intelligence Artificielle Agents Intelligents
  69. 69. Mesure de performance Formellement, la mesure de performance se présente sous la forme d’une fonction associant un nombre réel à la succession des états de l’environnement : V: S∗→R où S* est l’ensemble des historiques possibles. - la mesure doit être la plus objective possible, c’est pourquoi elle dépend de l’environnement, elle est extérieure à l’agent. Par exemple un agent humain n’est pas forcément objectif quand il s’agit de s’auto-évaluer : certaines personnes se surestiment, d’autres se sous-estiment. - La mesure doit être pertinente par rapport à l’objectif souhaité. - Pour résumer : Externe Fixée par le concepteur Propre à la tâche Intelligence Artificielle IAD/SMA
  70. 70. Concept 4 : Organisation Le choix d'un modèle d'organisation  3 points de vue organisations rationnelles – collectivités à finalités spécifiques – objectifs, rôles, relations (dépendances...), règles organisations naturelles (végétatives) – objectif en lui-même : survie (perpétuer l'organisation) – stabilité, adaptativité systèmes ouverts – inter-relations /dépendances avec d'autres organisations, environnement(s) – échanges, coalitions  Organisations abstraites rôles (client, producteur, médiateur) spécialisation des agents (simplicité vs flexibilité) redondance des agents (efficacité vs robustesse) relations (dépendances, hiérarchie, subordination, délégation) protocoles d'interaction / coordination gestion des ressources partagées
  71. 71. Organisation Notion duale: •Structure décrivant comment les membres de l'organisation sont en relation : aspect statique •Processus de construction d'une structure : auto-organisation, ré-organisation, émergence : aspect dynamique Quelques inspirations •Militaire, Entreprise, Marché d’échange, Équipe sportive. •Biologie, … Approche organisationnelle / approche émergentiste

×