SlideShare une entreprise Scribd logo
1  sur  59
Télécharger pour lire hors ligne
Y-NOV Ingésup M2 Développement
Mémoire de fin
d’études
Entre prouesses technologiques et volonté d’innovation, l’intelligence
artificielle dépassera-t-elle l’homme ?
GRENIER Florian / ATOS
2015/2016
Mémoire de fin d’études Florian GRENIER
Page 1
Mémoire de fin d’études Florian GRENIER
Page 2
Table des matières
Remerciements........................................................................................................................4
Introduction............................................................................................................................5
1) Contexte ..........................................................................................................................7
1.1) Qu’est-ce que l’intelligence ? .......................................................................................7
1.2) Les processus cognitifs................................................................................................8
1.3) Qu’est-ce que l’intelligence artificielle ?........................................................................9
2) Les différents courants d’intelligences artificielles ...........................................................11
2.1) Symbolisme ou Cognitivisme.........................................................................................11
2.2) Connexionnisme...........................................................................................................13
2.3) Comportementalisme ....................................................................................................14
3) Les types de développement............................................................................................16
3.1) Les systèmes experts.....................................................................................................16
3.2) Algorithmes génétiques .................................................................................................18
3.3) Acquisition de connaissances, apprentissage automatique ..................................................20
3.4) Traitement automatique du langage naturel ......................................................................23
3.5) Calcul formel ...............................................................................................................24
3.6) Résolution de problèmes................................................................................................26
3.7) Sémantique et indexation...............................................................................................29
3.8) Intelligence artificielle collective et systèmes multi-agents.................................................31
3.9) Réseaux de neurones artificiels.......................................................................................33
3.10) Réalité virtuelle ..........................................................................................................35
4) Les domaines d’applications ...........................................................................................36
4.1) Accessibilité et ergonomie .............................................................................................36
4.2) Banque........................................................................................................................38
4.3) Finance........................................................................................................................39
4.4) Militaire ......................................................................................................................40
4.5) Jeux ............................................................................................................................41
4.6) Médecine.....................................................................................................................43
4.7) Logistique....................................................................................................................44
4.8) Robotique ....................................................................................................................44
5) Dépasser l’homme ? .......................................................................................................45
5.1) Performances : Homme / Machine ..................................................................................45
5.2) La transhumanité et la nanorobotique ..............................................................................48
5.3) Artificial Narrow Intelligence.........................................................................................49
Mémoire de fin d’études Florian GRENIER
Page 3
5.4) Artificial General Intelligence ........................................................................................49
5.5) Artificial Super Intelligence ...........................................................................................50
5.6) Les limites ...................................................................................................................51
5.7) Les risques...................................................................................................................53
6) Conclusion.....................................................................................................................56
7) Webographie .................................................................................................................58
Mémoire de fin d’études Florian GRENIER
Page 4
Remerciements
Je tiens à remercier mon Ecole Y-Nov pour m’avoir permis de suivre un enseignement
de qualité et une formation professionnalisante au sein de son groupe durant les trois années
que j’ai passé en son sein.
Je remercie également mon tuteur de la française des jeux Rémi Juanes et les autres
membres du socle du CDS d’Atos pour leur patience et leur disponibilité lorsque j’avais
besoins de leurs avis et conseils.
Je remercie vivement mon maître de stage Rémi Mertz pour ses disponibilités d’autant
plus que nous ne sommes pas dans la même zone géographique.
Enfin, je tiens à remercier ma famille et mes amis pour le soutient que j’ai pu avoir
durant la rédaction de ce document.
Mémoire de fin d’études Florian GRENIER
Page 5
Introduction
Depuis l’enfance je cultive une passion pour la science-fiction, les robots et toutes les
possibles évolutions technologiques pouvant me faire rêver. Je me suis donc documenté, j’ai
lu beaucoup de revues scientifiques pour suivre les avancées technologiques. J’ai également
regardé un grand nombre de séries et de films sur le propos ne faisant qu’amplifier ma
passion.
C’est donc tout naturellement que j’ai orienté mes études dans la technologie pour
essayer d’être toujours à jour et à la pointe des nouvelles prouesses techniques. Aujourd’hui
en cinquième année d’école d’ingénieur en informatique, il me fallait trouver un sujet de
mémoire pour la fin de mon cycle, et évidemment, je cherchais un thème sur la technologie.
Je le voulais compliqué et d’actualité pour apprendre de ces recherches et de ce travail. J’ai
donc choisi un thème qui aujourd’hui passionne et fait beaucoup rêver : l’intelligence
artificielle.
Entre les nombreuses recherches des multinationales Google ou Apple dans cette
matière et les aspirations de l’humanité à la transhumance et l’automatisation des tâches, je
vais tenter de vous faire découvrir l’univers de l’IA. Pour ce faire, j’ai effectué de nombreuses
recherches et beaucoup de synthèse sur internet, un grand nombre de sources existent à des
niveaux de granularité scientifique différents. C’est un sujet vaste faisant intervenir beaucoup
plus de disciplines que le simple développement informatique. C’est un aspect de
l’informatique pouvant mener à de grandes découvertes ou bien à une optimisation de travaux
actuellement effectués par l’homme.
Je vais donc expliquer le concept d’intelligence, puis celui de l’intelligence artificielle.
Apres avoir bien compris ces principes, nous verrons l’historique de l’IA et ses différents
courants de pensées, ceci pour prendre conscience de l’ampleur du sujet et de son caractère
complexe, pluridisciplinaire et vaste.
On développera ces courants de pensées en faisant l’analyse des différents types de
développement pouvant être mis en place, les différentes manières d’appréhender cette
discipline. Nous aurons alors une grande partie d’explications, de définitions de termes et
d’étude de l’art nécessaire à la bonne compréhension des concepts et de leur portée
d’application dans notre monde.
Mémoire de fin d’études Florian GRENIER
Page 6
Nous verrons donc ensuite les domaines d’application et les changements apportés par
cette nouvelle discipline dans notre quotidien, l’intelligence artificielle est partout autour de
nous et nous ne le soupçonnons pas le plus souvent. A la fin du mémoire, nous verrons
comment utiliser cet outil à bon escient et nous ferons la comparaison de performances
actuelles et futures de ces intelligences informatiques contrairement à notre intelligence
humaine.
Mais ceci n’est pas sans risque, nous verrons donc les limites et les craintes
qu’engendrent une telle technologie, et on essaiera également de proposer des mesures
préventives aux différents risques possibles pour le futur.
Mémoire de fin d’études Florian GRENIER
Page 7
1) Contexte
1.1) Qu’est-ce que l’intelligence ?
Avant toutes choses on peut se demander ce qu’est l’intelligence, comment la
formaliser et la caractériser (les différentes zones cognitives dans la Figure 1). Nous allons ici
expliquer les différents principes nécessaires à la compréhension de la suite du document.
Zones cognitives
Le mot « Intelligence » est un dérivé du latin « intelligentĭa » signifiant « faculté de
comprendre » et plus précisément la capacité à lier des éléments entre eux. Elle est
l’ensemble des capacités mentales nous permettant de comprendre ce qui nous entoure, de
découvrir des relations nous permettant d’aboutir à une connaissance conceptuelle et
rationnelle celle-ci étant en opposition avec les sensations et émotions.
La compréhension est l’aboutissement d’un système de codification diversifié qui,
par la maîtrise du langage permet un raisonnement complexe nous permettant d’établir des
relations entre éléments. C’est également la définition de notre faculté d’adaptation, nous
permettant de gérer de nouvelles situations et notre capacité à traiter les informations pour
atteindre un objectif.
Afin d’atteindre ces objectifs, l’intelligence fera intervenir plusieurs facultés
cognitives que nous allons maintenant détailler pour comprendre par la suite les différentes
intelligences artificielles existantes, celles-ci étant basées sur notre connaissance du cerveau
humain, et inspirées de ces processus cognitifs.
Mémoire de fin d’études Florian GRENIER
Page 8
1.2) Les processus cognitifs
Cognitivisme
Un processus cognitif est « un cheminement par lequel un système traite une
information en y répondant par une action ». Ce traitement est le processus par lequel une
information est analysée et intégrée dans la base de connaissance du système, ceci dépendant
du mode de traitement et du niveau d’élaboration de l’information.
D’après les travaux en psychologie génétique de Jean Piaget, durant l’acquisition des
connaissances, les processus cognitifs utilisent deux mécanismes élémentaires : l’assimilation
et l'accommodation. L’assimilation est le fait d’intégrer une nouvelle situation à une
ensemble auxquels une règle existe déjà, ici on ne change pas d’action mais on étend notre
champ de connaissances. Pour ce qui est de l'accommodation, on modifie justement une
conduite préexistante pour s’adapter à une situation connue mais dont les méthodes
habituelles de résolution sont obsolètes et ne suffisent plus, c’est le processus d’adaptation.
On peut regrouper les processus cognitifs comme suis :
- Perception, Sensation, Attention
- Catégorisation, Reconnaissance, Raisonnement et Prise de décision
- Représentation, Mémoire et Langage
- Oubli, Emotions et Apprentissage
- Les phénomènes collectifs et individuels
Maintenant que nous avons défini les processus cognitifs, nous allons voir comment
notre compréhension de ces mécanisme on put permettre l’émergence d’un tout nouveau
domaine de recherche : l’intelligence artificielle.
Mémoire de fin d’études Florian GRENIER
Page 9
1.3) Qu’est-ce que l’intelligence artificielle ?
Symbole de la représentation en informatique du cerveau
C’est une discipline scientifique relative aux traitements des connaissances et au
raisonnement dans le but de permettre à une machine d'exécuter des fonctions normalement
associées à l’intelligence humaine. L’intelligence artificielle tente de reproduire les
processus cognitifs humains dans le but de réaliser des actions « intelligentes ». Le
scientifique Marvin Lee Minsky, pionnier de la discipline, défini l’intelligence artificielle
comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont,
pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles
demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel,
l’organisation de la mémoire et le raisonnement critique ».
La plupart des définitions de l’IA sont proches et respectent globalement la définition
de Minsky, mais elles peuvent diverger sur les points suivants :
- Certaines définitions lient l’IA à un aspect humain de l’intelligence tandis que d’autres
la lient à un modèle idéal de l’intelligence : la rationalité.
- D’autres définitions s'attardent plus précisément sur la notion d’avoir toutes les
apparences de l’intelligence ou alors un fonctionnement interne ressemblant
uniquement à celui de l’être humain et sa rationalité.
A l’origine, la première personne à parler « d’Intelligence Artificielle » est
probablement le scientifique et inventeur Alan Turing dans son article “Computing Machinery
and Intelligence” publié en Octobre 1950 dans le magazine Mind. Dans cet article, le
mathématicien nous parle pour la première fois du “Test de Turing” dans une tentative de
définition d’un standard permettant de qualifier une machine de « machine consciente ».
Mémoire de fin d’études Florian GRENIER
Page
10
On considère que le domaine de recherche fut alors crée lors d’une conférence au
Dartmouth College en 1956 à laquelle assistaient les précurseurs du domaine. L’intelligence
artificielle se développa donc grandement aux Etats-Unis :
- Université de standford : John McCarthy
- MIT : Marvin Minsky
- Université Carnegie-Mellon : Allen Newell et Herbert Simon
- Université d’Edimbourg : Donald Michie
En France, à la même époque, nous avions le polytechnicien Jacques Pitrat, pionnier en
intelligence artificielle symbolique.
Deux grandes versions de l’intelligence artificielle sont imaginées : l’ia forte et l’ia
faible.
L’intelligence artificielle forte représenterait une machine capable non seulement de
faire preuve d’un comportement intelligent, mais plus précisément d’éprouver des émotions et
une réelle conscience de soi.
L’intelligence artificielle faible, quant à elle, correspondrait à une approche
pragmatique d’ingénieur, on cherche à construire des systèmes de plus en plus autonomes, en
simulant de l’intelligence, mais la machine n'exécute qu’une suite d’instructions plus ou
moins complexes.
En intelligence artificielle, plusieurs courants de développement existent, nous allons
maintenant voir ces différentes formes de pensées et leurs caractéristiques.
Mémoire de fin d’études Florian GRENIER
Page
11
2) Les différents courants d’intelligences artificielles
Dans ce chapitre, je vais aborder les différents modèles de pensées liés à l’intelligence
artificielle. Je tenterais de vous les expliquer et de vous faire comprendre les différences qu’il
existe entre eux. Vous pourrez, par la suite, vous identifier à l’un de ces modèles, et mieux
comprendre le cheminement qui a pu mener à de telles découvertes.
2.1) Symbolisme ou Cognitivisme
Fonctionnement du cognitivisme
Ce modèle d'intelligence artificielle travaille sur des structures de symboles, ceux-ci
n’ont pas de signification pour la machine. Le système va reconnaître les formes de ces
symboles puis leur signification sera attribuée par l'extérieur. La création de ce courant de
développement de l’IA vient d’une simple question que l’on peut se poser : Peut-on réduire
les processus cognitifs à la manipulation de symboles fondée sur leurs formes ?
Depuis le livre “Mind, brains and science” écrit par J.Searle en 1980, la discussion
contemporaine autour du problème d’ancrage des symboles se poursuit périodiquement et fais
l’objet de nombreuses recherches. Dans son article, Searle part d’un postulat comme quoi un
système incapable de remplir des symboles de sens peut quand même engendrer un
comportement apparemment intelligent, de ce fait il expose une faiblesse du test de Turing,
celui-ci ne serait pas totalement convainquant car déniant l’affirmation que toute intelligence
s’affirme via un système symbolique.
Mémoire de fin d’études Florian GRENIER
Page
12
Dans son livre La société de l’esprit, Marvin Minsky, s’appuie sur des observations du
psychologue Jean Piaget. Il envisage le processus cognitif comme une compétition d’agents
fournissant des réponses partielles et dont les avis sont arbitrés par d’autres agents. Pour
mieux comprendre, on peut citer les exemples suivants de Piaget :
- L’enfant croit d’abord que plus le niveau d’eau est élevé dans un verre, plus il y a
d’eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le
fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle
du diamètre du verre, et arbitre de son mieux entre les deux. Il ne manipule ici que des
symboles, il redéfini ses acquis pour s’adapter à la situation.
- Il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la
réduction de plusieurs objets temporairement représentés à une même boule de pâte
l’incite à dégager un concept de conservation de la quantité de matière.
Finalement, ces jeux d’enfants aux premiers abords futiles se révèlent essentiels à la
formation de l’esprit, permettant de dégager quelques règles pour arbitrer les différents
éléments d’appréciation qu’il rencontre, par essais et erreurs. On peut donc résumer le
symbolisme à un courant de pensées permettant de recréer des fonctionnements cognitifs
par le traitement de symboles et la représentation de ceux-ci.
Le traitement symbolique est une approche prometteuse, mais comme tout courant de
pensée, il a ses qualités et ses défauts. Nous allons maintenant nous familiariser avec le
connexionnisme, qui lui, s’axe sur une réflexion basée sur des connexions, bien plus proche
de la biologie que de la psychologie.
Mémoire de fin d’études Florian GRENIER
Page
13
2.2) Connexionnisme
De nouvelles approches intéressantes voient le jour avec l'étude des réseaux distribués,
dans lesquels l'imitation du cerveau par l'ordinateur, se retrouve au niveau structurel de base :
une multitude d'agents vont permettre de traiter l'information complexe en un temps bref
grâce à des techniques d'apprentissage du réseau.
Différents types de connexions neuronales artificielles possibles
Chaque unité se conduit comme un neurone, transmet le message lorsqu'il est excité et
renforce ses connexions à chaque utilisation. Plusieurs variantes vont naître de cette approche
connexionniste, qui donneront d'excellents résultats en matière d'apprentissage, de
reconnaissance du langage ou d'une image, dans le traitement de problèmes de fond à nature
statistique (logique floue), mais également en termes de robustesse structurelle et
fonctionnelle.
Le principe de base est que les phénomènes mentaux peuvent être représentés par de
simples unités interconnectées. La forme des unités et des connexions varient en fonction
des modèles, on imaginera que les unités du réseau sont les neurones et les connexions seront
les synapses. Pour l’apprentissage du langage, on dira que chaque unité est un mot et chaque
connexion est une relation de similarité sémantique ou lexicale.
Comme présenté ci-dessus, l'implémentation la plus répandue est celle des réseaux de
neurones. Les réseaux neuronaux ayant une approche connexionniste auront deux principales
caractéristiques :
- Chaque état peut se représenter via un vecteur à x dimensions représentant les
valeurs seuils d’activation des unités neuronales.
Mémoire de fin d’études Florian GRENIER
Page
14
- Le réseau peut apprendre et adapter son appréhension de l'évènement en
modifiant à la volée les poids des connexions entre les différents neurones, ce
qui aura pour effet de modifier la pertinence de la connexion. C’est ainsi que
l’on adaptera notre réseau de neurone pour qu’il approche de plus en plus son
comportement objectif.
Malgré ces deux points communs, les modèles de réseaux de neurones basés sur le
connexionnisme peuvent différés par :
- La définition de l’activation d’un neurone : de multitude manières permettent de
définir l’activation d’un neurone comme dans une machine de Boltzman, ici
l’activation est définie comme la probabilité de déclencher un potentiel d’action. Ce
sera une fonction logistique prenant en paramètres la somme des entrées de l'unité
courante.
L’approche connexionniste peut se représenter comme une boite noire autonome. Mais
elle ne prend pas en compte les interactions du système avec son milieu. C’est en ce point que
le comportementalisme se distingue des autres mouvements de pensées.
2.3) Comportementalisme
Le comportementalisme, aussi appelé béhaviorisme ou behaviorisme, est un approche
psychologique consistant à se concentrer sur le comportement observable de l’individu,
celui-ci ayant une attitude dictée par l’histoire et les interactions qu’il aura pu avoir avec son
milieu.
Historiquement, le comportementalisme est née d’une réaction aux approches dites :
« mentaliste » qui, voyant dans le mental la cause d’une action, défendaient la méthode
d’introspection pour accéder à la compréhension de l’esprit.
C’est en 1913 que John Broadus Watson établit les principes de base du béhaviorisme
(et en invente accessoirement le nom).
La plupart des théories sur l’apprentissage ont trois grandes variables, savoir :
- L’environnement qui stimule (que nous noterons S comme “stimuli”).
- L’organisme qui est stimulé (que nous noterons I comme “individu").
- La réaction de l’individu aux stimuli (que nous noterons R comme “réaction”).
Mémoire de fin d’études Florian GRENIER
Page
15
On peut donc écrire le schéma suivant :
- S -> I -> R
Mais avec l’approche du comportementalisme on va nier la réalité de l’individu et de son
fonctionnement interne, en effet, nous allons ici chercher les processus par lesquels
l'environnement (S) contrôle le comportement. On considère alors l’individu comme une
“boite noire” et on peut reformuler le schéma avec :
- S -> R
Le problème avec cette représentation est qu’elle n’explique que les apprentissages liés à des
stimulations inconditionnelles. On doit alors ajouter deux nouvelles variables :
l’environnement et les conséquences sur l’organisme, celles-ci pouvant être positives ou
négatives, et modulées par le contexte (noté C). On aura donc :
- S -> R -> C
Ici on obtient un conditionnement opérant qui, à la différence d’un conditionnement classique,
présuppose un être actif dans son environnement.
Nous avons vu les trois plus grand courants de pensées autour de l’intelligence
artificielle mais ce ne sont pas les seuls, j’ai choisi ceux-là car se sont les plus importants et
pertinents.
Après avoir introduit le concept d’intelligence puis défini les différents courants de
pensées relatifs à l’intelligence artificielle, nous allons maintenant voir les différents types
d’intelligence artificielle que nous connaissons aujourd’hui. Nous verrons par la suite leur
domaine d’applications.
Béhaviorisme
Mémoire de fin d’études Florian GRENIER
Page
16
3) Les types de développement
L’intelligence artificielle étant un domaine extrêmement large. Nous avons de bien
nombreuses façons de s’en servir, de la plus simpliste à la plus compliquée, et chacune des
méthodes de développement à une fonction spécifique.
Nous allons commencer par le développement adapté à l’exécution de taches formelles
expertes d’un domaine précis.
3.1) Les systèmes experts
Un système expert représente un outil capable de reproduire la réflexion et les
mécanismes cognitifs d’une personne experte dans un domaine donné. Il s’agit d’une des
voies tentant d’aboutir à une intelligence artificielle forte. Le système expert sera donc un
logiciel informatique capable de répondre à des questions données en faisant un raisonnement
par déduction à partir de faits et de règles universelles. On pourra l’utiliser dans les outils
d’aide à la décision comme le système DENDRAL permettant d’identifier des constituants
chimiques.
Un système expert se compose principalement de trois parties :
- Une base de règles
- Une base de faits
- Un moteur d’inférence
Fonctionnement d’un système expert
Mémoire de fin d’études Florian GRENIER
Page
17
Le but du moteur d’inférence est de traiter les faits avec la base de règles pour
parvenir à la production de nouveaux faits permettant d’arriver à la réponse à la question
experte posée. Pour parvenir à une telle déduction, les moteurs d’inférence implémentent des
mécanismes de logique formelle basés sur un raisonnement déductif :
- Si E1 est vrai (premier évènement) et si on sait que E1 implique E2 (via règle), alors
on peut dire que E2 est vrai (nouvel évènement).
Il y a deux manières d’appréhender les systèmes experts, via une logique des propositions ne
présentant que des évènements vrais ou faux, ou bien via une logique des prédicats facilement
manipulables par des algorithmes connus.
Afin que le système expert puisse être efficace, il faut mettre en place des règles de
cohérence et donc éviter :
- Les incompatibilités : si nous avons une règle qui entraine l'évènement C via les
évènements A et B, on ne pourra pas avoir d'évènement X avec A et B comme origine
en suivant une règle équivalente. En d’autres termes, un couple d'évènements A et B
ne pourra toujours donner que C en sortie en appliquant une règle définie.
- La redondance : si on applique le même raisonnement déductif à deux évènements,
on ne pourra pas avoir le même résultat sauf si l’on modifie les coefficients de
certitude de la règle entre les exécutions.
- Le bouclage : partant d’un évènement A comme source, on ne doit pas pouvoir
revenir à ce même évènement en appliquant les règles du système, il ne faut tout
simplement pas créer de boucle infinie de déduction.
Pour fonctionner, nous avons vu qu’un système expert nécessite une base de faits et
une base de règles face à ces faits, mais on peut se demander comment déterminer et créer
cette base de règles et de faits ? Il suffit d’utiliser les connaissances du développeur du
système et d’inculquer directement en dur la liste de faits et de règles, mais ce ne sera jamais
une base autant exhaustive que l’on pourrait le souhaiter. Il faut arriver à déterminer le
comportement d’un expert face à un problème spécifique et sa manière de le résoudre, on
recherche ici l'expérience, la connaissance pratique de l’expert, et non la simple théorie que
l’on retrouve dans des livres.
On pourra alors ajouter un système d’apprentissage automatique à notre système
expert pour permettre d'acquérir des connaissances plus pertinentes se rapprochant le plus
possible d’un réel expert, on ferra cela par le biais d’algorithmes génétiques.
Mémoire de fin d’études Florian GRENIER
Page
18
3.2) Algorithmes génétiques
C’est une forme d’algorithme dite « évolutionniste » dont le but est de résoudre des
problèmes d’optimisation ou de trouver des solutions lorsqu’il n’existe pas de méthode
exacte, et tout cela dans un laps de temps raisonnable de façon intelligente. Pour parvenir à
ces performances, on utilisera le mécanisme de sélection naturelle et de générations sur des
populations d’agents travaillant sur le problème.
Pour bien comprendre le fonctionnement de cet algorithme, il faut faire des analogies
avec la biologie, nous allons alors définir préalablement trois termes importants pour la bonne
compréhension de la suite du document :
- Sélection : c’est le fait de déterminer et de ne garder que les individus les plus
performants ou laissant présager le plus gros potentiel de hautes performances. Cette
sélection se fait donc au moment de la reproduction, les plus adaptés gagnent la course
tandis que les autres sont évincés avant la fin, ce qui permet d’améliorer l’adaptation
de la lignée. On pourrait presque penser à la sélection naturelle mais il existe une
petite différence, ici le critère de sélection est déterminé par l’homme un peu comme
avec les agriculteurs et leurs légumes, on parlera alors de sélection artificielle.
- Enjambement : au niveau biologique, c’est l’instant ou deux chromosomes se
combinent pour donner de nouveaux chromosomes lors de la reproduction. Le
mélange peut se faire suivant un ou plusieurs points de croisement. La plupart du
temps en algorithmie génétique, nous n’aurons qu’un seule point de croisement
déterminé par la technique de recombinaison et le problème à résoudre.
- Mutations : c’est le fait qu’un gène aléatoire peut être a tout moment substitué
à un autre. On définira un pourcentage d’apparition très faible (0.001 < Taux < 0.1)
pour garder les principes de sélection et d’évolution. Il reste néanmoins nécessaire de
garder ces mutations afin d’éviter une convergence finie des générations et de
permettre d’introduire un facteur aléatoire pouvant mener à la sérendipité.
Maintenant que ces principes sont plus clairs, on peut expliquer le fonctionnement de ces
algorithmes et pourquoi ils sont aussi puissants. C’est ces algorithmes qui arrivent à battre des
joueurs professionnels d’échec ou de go !
Mémoire de fin d’études Florian GRENIER
Page
19
Nous commençons alors avec une population d’individus de base se composant
chacun de chaines de caractères, ceci représentant les chromosomes (d’autres techniques de
représentation des données existent, mais nous choisirons celle-là pour expliquer ici). La liste
des agents initiaux est générée aléatoirement pour avoir une diversité significative et des
points de recherches radicalement différents, permettant d’aboutir à une plus grande diversité
de réponses possibles au problème donné. Ensuite on analyse et on pondère chaque individu
en fonction de sa capacité à résoudre le problème, puis on effectue la sélection sur le groupe.
Etant donnée la grande diversité des techniques de sélections possibles, je vais ici vous
expliquer les principales :
- La sélection par rang : ici, la sélection consiste à ne garder que les individus
ayant le meilleur score d’adaptation, l’aléatoire n’entre donc pas en jeu dans la
fonction de sélection mais est effectif au niveau des mutations et des rangs
d’adaptation.
- Probabilité de sélection proportionnelle à l’adaptation : contrairement à la
sélection par rang, ici nous allons faire intervenir un paramètre aléatoire dans la
sélection. Chaque élément aura une chance d’être tiré au sort proportionnel à son
degré d’adaptation mais cela reste du tirage au sort.
Une fois les membres sélectionnés, nous allons effectuer les opérations d’enjambement et de
mutations sur une faible quantité d’individus choisis aléatoirement. Puis on relance le procédé
de sélection etc…
Ces actions seront effectués un grand nombre de fois pour simuler l’évolution qui n’es
significative que sur un très grand nombre de générations. Au bout d’un nombre défini de
générations, le procédé sera stoppé, ou bien lorsque les performances d’un individu auront
dépassé un ratio recherché.
Beaucoup d’autres principes d’optimisation peuvent être introduits tels que l’inclusion
d’individus n’étant pas de la même descendance (générés aléatoirement) offrant ainsi une
probabilité d’éviter la convergence locale des résultats accrue.
Mémoire de fin d’études Florian GRENIER
Page
20
Fonctionnement récursif de l’algorithme
Avec ce type d’algorithmes, nous pouvons « apprendre » à un programme à résoudre
un problème complexe (tels que les échecs) n’ayant pas de solution absolue (ou celle-ci étant
trop longue à trouver, comme dans le jeu de go).
Il existe de nombreuses méthodes pour « faire apprendre » à un programme, je vais
maintenant vous les énumérer et vous les expliquer.
3.3) Acquisition de connaissances, apprentissage automatique
Avant tout, il est important de donner une définition de la connaissance. C’est une
notion complexe et n’ayant pas de définition avérée. Il a été défini par Christian Godin que la
connaissance est la « faculté mentale produisant une assimilation par l'esprit d'un contenu
objectif préalablement traduit en signes et en idées », il ajoute « Résultat de cette opération, la
connaissance est une possession symbolique des choses.
Nous allons maintenant voir par quel procédés nous arrivons aujourd’hui à faire
apprendre aux programmes, leur inculquer des connaissances leurs permettant de se
perfectionner. Cette discipline de l’intelligence artificielle se nomme l’apprentissage
automatique (ou apprentissage statistique) : « machine learning » en Anglais. Elle permet
l’analyse, la conception, le développement et l'implémentation de méthodes permettant à une
machine de se modifier, d’évoluer par des processus systématiques leurs permettant alors de
remplir des tâches impossibles à effectuer avec des algorithmes classiques.
Mémoire de fin d’études Florian GRENIER
Page
21
Avec l’apprentissage automatique, on peut travailler sur des courbes ou des graphes
mais aussi sur de la classification, c’est un modèle permettant potentiellement d’apprendre
tout ce que l’on souhaite, l’imagination est la seule limite de l’apprentissage automatique
(avec peut-être le hardware, mais on reviendra sur les limites de l’ia plus tard). En principe,
les algorithmes utilisés permettent à un système d’adapter ses analyses, de modifier son
comportement en fonction de l’analyse de données provenant de Bases de Données ou de
capteurs (pour les robots).
La plus grande difficulté réside dans le fait que la grande masse de couple
action/réaction ou paramètre/comportement devient très rapidement énorme et impossible à
décrire (c’est « l’explosion combinatoire »). Il faut alors doter le programme d’une fonction
d’ajustement lui permettant de simplifier son processus d’apprentissage, et accessoirement lui
permettant d’évoluer, de modifier son fonctionnement en fonction de la modification des
données dans la base, le programme remettra en question ses acquis et modifiera son
comportement si celui-ci n’est plus adapté.
Les différents types d’apprentissages sont :
- L’apprentissage supervisé : nous avons deux phases, la phase d’apprentissage et la
phase de tests. On donne un environnement avec des classes prédéterminées et des
exemples connus, un expert aura étiqueté les bonnes classes sur les exemples puis le
système va alors tenter de déterminer le modèle de données via une analyse des
exemples. Par la suite, le système tentera de prédire la classe d’un élément non
étiqueté, il est important de noter que les meilleurs performances ne se retrouvent pas
sur les modèles binaires (en disant que tel élément appartient à telle classe), mais sur
des modèles probabiliste retournant un pourcentage de chances d’appartenir à telle ou
telle classe, on pourra à ce moment inclure un seuil de déclenchement disant que si
cette probabilité dépasse X%, alors on considère que l’on est à 100% sur de
l’appartenance de l’objet à la classe.
- L’apprentissage non-supervisé : ici nous avons des exemples sans classe ni étiquette
préalable, nous n’avons donc plus besoin d’expert pour ce type d’apprentissage. Le
programme va devoir calculer la similarité des exemples via une fonction de distance
entre paires d’exemples. Le système va alors classer par similarité les exemples dans
des groupes et des groupes de groupes et ce sera a l’opérateur de déterminer le sens de
ces groupes. Ce type de classement étant hautement probabiliste, de nombreux outils
mathématiques existent déjà. A savoir que ce mode d’apprentissage peut être une
grande source de sérendipité (le fait de faire une découverte de manière inattendue).
Mémoire de fin d’études Florian GRENIER
Page
22
Fonctionnement simplifié de l’apprentissage
Les modèles suivants ne sont que des dérivations des deux grands modèles précédents.
- L’apprentissage semi-supervisé : on utilise ce modèle lorsqu’il nous manque des
étiquettes ou classes, on utilisera des exemples non classés et on essaiera de voir par
rapport aux exemples classés les similarités ou alors on créera de nouveaux groupes
sous-jacents aux existants.
- L’apprentissage partiellement supervisé : il ressemble à l’apprentissage semi-
supervisé, il est utilisé lorsqu’un exemple n’appartient ni à A ni à B, on cherchera
alors son étiquette.
- L’apprentissage par renforcement : le programme apprendra ici un nouveau
comportement en fonction d’observations, c’est à dire que l’action qu’aura
l'algorithme sur l’environnement retournera une valeur qui guidera le modèle
d’apprentissage.
- L’apprentissage par transfert : c’est la capacité d’un programme à reconnaître des
connaissances apprises à partir d’anciennes tâches et les appliquer sur de nouvelles
tâches ou domaines ayant des similitudes.
Mémoire de fin d’études Florian GRENIER
Page
23
Pour effectuer un apprentissage de qualité, plusieurs facteurs entrent en compte :
- Le nombre d’exemples : plus il y a d’exemples, plus l’apprentissage sera long mais
plus il sera de qualité, au contraire, moins il n’y en a, moins ce sera long mais
l’apprentissage ne sera pas qualitatif.
- Le nombre et la granularité des étiquettes/attributs : plus nous aurons d’attributs,
plus la fonction de distance entre les paires d’exemples sera efficace.
- Le pourcentage de données manquantes et renseignées.
- Le « Bruit » : c’est le nombre de valeurs non conformes ou altérées pouvant mener à
confusion, ce sont ces valeurs pouvant amener à de grands faux-positifs et même une
erreur totale de classement de la part de l’algorithme.
A savoir que les modèles d’apprentissage automatiques sont tous plus ou moins inspirés
des êtres vivants, l’apprentissage automatique est peut être un sous-domaine de l’informatique
mais fait intervenir les sciences cognitives, les neurosciences, la biologie ainsi que la
psychologie.
Lorsque l’on développe une IA, il peut être intéressant de dialoguer avec, le chapitre
suivant expliquera le fonctionnement des méthodes de Traitement Automatique du Langage
Naturel (TAL ou TALN)
3.4) Traitement automatique du langage naturel
Ce type de développement est l’application de programmes et de techniques
informatiques au langage humain, aussi appelée ingénierie linguistique. C’est avec le test de
Turing et les machines tentant de le relever, que les premiers essais de TAL furent tentés. Le
test de Turing (Allan Turring dans « Computing machinery and intelligence ») est un test
ayant pour ambition de révéler si une machine est « intelligente » ou non. On va faire discuter,
via une conversation en temps réel, une machine et un humain. Le test se révèle positif si
l’humain est incapable d’affirmer à 100% s’il a une machine ou un humain en face de lui. En
1954, l'expérience de traduction russe/anglais de Georgetown fait également intervenir du
TALN et est le prémice de la traduction automatique. Vers 1965, Joseph Weizenbaum
développe le programme ELIZA ; étant une simulation de la psychothérapie rogérienne
consistant à mettre l’accent sur l’empathie, l’authenticité et le non-jugement.
Mémoire de fin d’études Florian GRENIER
Page
24
Cette approche à l'avantage de ne pas prendre en compte la pensée ou les émotions
humaines, ce qui rend le programme plus facilement crédible. Par la suite ce sont de
nombreux chatterbot (robots de discussion) et de nombreuses recherches sur la traduction
automatique qui monopolisèrent les chercheurs, au fur et à mesure de l’évolution des
puissances de calcul, les programmes devinrent de plus en plus performants.
Schéma du TALN
On peut faire des analyses statistiques dans le TAL permettant de désambiguïser des
phrases très longues pouvant mener à des milliers voir millions d’analyses possibles. On
utilisera ici de l’apprentissage automatique sur le système pour qu’il fasse de moins en moins
de confusions de sens.
Le TAL à de nombreuses applications telles que la production ou la modification de
texte (correction orthographique, traduction automatique ou encore résumé automatique de
texte etc…), le traitement du signal comme la reconnaissance de la parole ou bien
l’extraction d’information avec l’annotation sémantique ou la classification de documents.
Comme j’ai pu le dire au début du document, l’intelligence artificielle ne sert pas
seulement à optimiser des processus mais elle permet également de formaliser des actions afin
de les exécuter le plus rapidement possible. Le calcul formel fait partie de cette catégorie.
3.5) Calcul formel
Si on adapte la technique de traitement du langage aux mathématiques on obtient le
traitement informatique du langage mathématique. Le calcul formel, au contraire du calcul
numérique, traite des expressions symboliques.
Mémoire de fin d’études Florian GRENIER
Page
25
C’est par un procédé de transformation des expressions mathématiques (traduction)
que les algorithmes tenteront de résoudre les différentes équations qui lui sont données. Par
exemple, calculer la valeur d'une fonction réelle en un point est du calcul numérique alors que
calculer la dérivée d'une fonction numérique, déterminer sa primitive, simplifier son
expression est du calcul formel. De nombreux logiciels très puissants sont commercialisés
pour exécuter tous les calculs formels et bien d‘autres nécessaires aux activités scientifiques et
techniques tels que MAPLE ou MATHEMATICA. Ces outils serviront principalement
d’assistants de preuve, apportant une aide aux mathématiciens, ce qui peut également
découler sur des outils de raisonnement logique au sens plus large du terme pour la
vérification des programmes par exemple.
Capture d’écran du logiciel MATHEMATICA
A la frontière entre les systèmes experts et les réseaux de neurones, nous avons la
résolution générale de problèmes. C’est un aspect pouvant regrouper plusieurs types de
développement.
Mémoire de fin d’études Florian GRENIER
Page
26
3.6) Résolution de problèmes
Cette approche consiste à analyser, formaliser et résoudre des problèmes concrets. La
résolution de problème est très vaste, se déplacer d’un endroit à un autre est une résolution de
problèmes et uniformiser la physique quantique et la relativité générale en est un autre. Un
problème est donc une tâche qu’il faut analyser, puis il faut dégrossir les réponses possibles
afin de parvenir à une conclusion satisfaisante. A savoir que la résolution de problèmes est
une des champs de recherche de l’intelligence artificielle le plus fondamental, les premiers
chercheurs tentèrent de créer des algorithmes permettant de résoudre n’importe quel
problème. C’était le but du “General Problem Solving” mais les chercheurs se sont rendus
compte de leurs actuelles incapacités à faire cela et ont donc été obligé de segmenter les axes
de recherche.
Fonctionnement grossier de la résolution de problèmes
La plus grande difficulté dans la résolution de problèmes est “l’espace de recherche de
solutions”, il est souvent immensément vaste et il faut alors implémenter des méthodes
permettant de le réduire en ne cherchant pas dans les directions inutiles. Il est également
intéressant de faire des rapprochements avec des problèmes similaires pour ne pas reproduire
les mêmes erreurs et afin de mieux modéliser la représentation du problème dans le système.
En dehors de l’industrie, la résolution de problème est très populaire pour les jeux (jeu
de go, échecs etc…). Il est important de noter qu’il faut différencier les algorithmes
euristiques de ceux faisant simplement intervenir la force informatique brute.
Mémoire de fin d’études Florian GRENIER
Page
27
Lorsque l’on cherche à battre le champion du monde d'échec avec un programme, il y
a peu d'intérêt à lui mettre le plus puissant des ordinateurs en face de lui qui testera toutes les
possibilités de coups (force informatique brut, long et non optimisé). Mais il est bien plus
intéressant d’essayer de concevoir une IA plus “intelligente” étant plus rapide et plus
performante pour des coûts réduits en énergie.
Le mode de fonctionnement de l’esprit humain utilise bien d’autres méthodes que les
méthodes logico-mathématiques auxquelles on pourrait penser. Il faut prendre en compte
l’imagerie sensorielle, et les analogies, on réagit et on se guide souvent par des émotions ou
par rapport à des analogies avec des situations connexes dans le passé. L‘informaticien
Douglas Hoftstadter à développer de nombreux programmes basés sur une approche
d’analogies comme le programme CopyCat qui a la capacité de se modifier lui-même au fur et
à mesure des questions qui lui sont posés, certains pensent même que ce programme pourrait
être un précurseur de l’IA forte ! Hoftstadter a également crée un autre programme avec Harry
Fondalis qui se nomme Phaeaco. Ce logiciel est capable de résoudre des problèmes de
Bongard : ce sont des problèmes présentés en deux pages, sur la page de gauche, six images
ayant toutes un point commun différent de celui des six images de droite. Pour trouver les
caractéristiques communes, le logiciel va être guidé par « idées » qu’il peut avoir à un
certain moment sur les différents concepts possibles.
Pour passer à l’étape suivante de l’intelligence en informatique, les chercheurs pensent
qu’il faudrait trouver un moyen de leur apprendre l’introspection, afin qu’ils comprennent les
raisons de leurs choix pour pondérer correctement les actions qu’ils entreprennent. Ils leur
manqueront aussi la notion de « but » pour arriver à travailler sur une intelligence artificielle
forte.
Un dernier programme intéressant à citer et utilisant une approche heuristique est
Eurisko. Ce programme est encore considéré comme l’un des plus intelligent jamais conçu, il
était capable de démontrer des théorèmes en explicitant ses modes de raisonnement, il était
même capable de proposer des suggestions. Eurisko a été banni d’un jeu (le « The Traveller
Trillion Credit Squadron ») qu’il gagnait tout le temps à cause de ses performances beaucoup
trop élevées par rapport au niveau des autres concurrents.
Pour s’approcher au plus du fonctionnement d’un homme, les chercheurs en IA ont du
se pencher sur l’analyser des flux visuels et sur la reconnaissance des formes. Le chapitre
suivant traitera du fonctionnement de cette discipline.
Mémoire de fin d’études Florian GRENIER
Page
28
3.7) Reconnaissances de formes ou vision artificielle
Les disciplines relatives à la vision artificielle
L’être humain arrive à reconnaître des formes et comprendre son environnement sans
en avoir la moindre conscience, c'est un mécanisme automatique qui s’effectue sans besoin de
conscience mais qui sollicite une très grande partie du cerveau. Ce qui prouve que ce
mécanisme a beau être devenu automatique, il n’en reste pas moins compliqué. Le processus
de construction de la perception depuis les informations renvoyés par nos sens fait
intervenir la quasi-totalité de notre cerveau.
Dès la création de l’IA, la volonté des chercheurs était d’équiper les machines de
dispositifs d’émission et de réception de signaux divers, de se rapprocher le plus possible des
performances humaines. Mais beaucoup de difficultés ont été rencontrées comme la diversité
des méthodes de traitement du signal ou alors de nombreux problèmes analogiques ou
logique.
Si on regarde la reconnaissance de la parole, l’idéale pensée était de pouvoir
reconnaître les paroles d’un locuteur quelconque, mais le processus est hautement compliqué
rien que par le fait que la compréhension d’un mot ne relève pas uniquement de connaissances
langagières mais aussi du contexte, du but ou du monde dans lequel vit le sujet.
Mémoire de fin d’études Florian GRENIER
Page
29
La reconnaissance de l’écriture fut plus simple sauf pour les écritures manuscrites ou
l’on aura une grande part d'ambiguïté due au côté unique de l’écriture de chaque personne. La
reconnaissance des visages à partir de photo ou de modèle vivant est importante pour les
systèmes sécuritaires ou pour que les robots reconnaissent les visages. Pendant longtemps,
cette approche fut considérée comme impossible, mais les chercheurs se sont rendu compte
qu’un cerveau de nourrisson le faisait très simplement. Aujourd’hui le modèle fonctionne
parfaitement et peut aussi donner des résultats supérieurs à ceux d’un être humain.
On ne va pas seulement essayer de reconnaître des formes mais on peut également
rechercher des modèles, des motifs ou des groupes. On peut donc tenter de détecter des objets
d’une certaine catégorie dans une image ou une vidéo. Pour ce faire, il faudra passer par
certaines étapes cycliques/récursives. On commencera par déterminer quelles données
devraient permettre de séparer ce que l’on recherche du reste qui ne nous intéresse pas. Par la
suite on récolte, on nettoie et on analyse les données afin de pouvoir en modéliser une
frontière discriminante pour notre objet cible par rapport au reste. Puis on terminera par
essayer de déterminer la région de l’image correspondant à ce que l’on recherche ou alors
au moins dire si notre objet est contenu ou non dans l’image.
Une fois que nous savons reconnaitre des images, que nous avons appris à décoder des
sons, il nous faut un système de classification. Il faudra ordonner, prioriser, pondérer et
classer les résultats de nos analyses. Il existe un domaine entier consacré à ce travail et c’est le
domaine de la sémantique et de l’indexation que je vais vous expliquer dans le chapitre
suivant.
3.7) Sémantique et indexation
Problème :
Ce domaine vient d’une constatation simple :
- Aujourd'hui les ressources multimédia disponibles sur un ordinateur sont
nombreuses et volumineuses.
- Elles sont difficilement accessibles car manque d’indexation et de classement.
Il reste facile mais long à un humain pour indexer manuellement une masse de ressources
multimédia c’est pour cela que l’indexation automatique à vue le jour.
Mémoire de fin d’études Florian GRENIER
Page
30
Solution :
On commence alors par extraire les données descriptives (métadonnées) du
document. Ces métadonnées peuvent être un grand nombre de choses tel que des segments
temporels ou des régions toutes descriptives et structurant du document. Pour ce faire on
utilisera un modèle de reconnaissance de formes ou alors un modèle basé sur l’apprentissage
des patterns à reconnaître dans le document en question.
On pourra utiliser des modèles “stochastiques”, permettant de caractériser l’évolution
dans le temps ou l’espace du contenu. Ceci permettant à la machine de « localiser » tel ou tel
évènement. On pourra également utiliser un système expert qui transcrit ce que l’on cherche
en base d’heuristiques, permettant de spécifier l’analyse du document sur un objet précis mais
il reste certains objets impossibles à déterminer ainsi.
Si on essaie de classifier les publicités des autres programmes diffusés sur une chaîne
de télévision, on le fera via apprentissage dirigé pour que le programme en ressorte les
caractéristiques spécifiquement discriminantes aux autres programmes. On pourra
également se retrouver face au problème de la représentation et structuration des métadonnées
dans un même système, ou entre système différents. Il faudra utiliser des outils
technologiques spécifiques permettant de construire des index et de définir des distances pour
optimiser le temps et la qualité de la recherche. Certaines recherches vont même jusqu'à
modéliser les intérêts des utilisateurs et un tel système couplé avec un mode de représentation
symbolique pourra permettre de définir dynamiquement les chemins optimaux vers les
données potentiellement recherchées.
Ce domaine est extrêmement vaste et fait intervenir de nombreux aspects de
l’intelligence artificielle, on peut presque l’adapter à tout problème. C’est une des pratique la
plus à la convergence des technologies parmi lesquelles l’intelligence artificielle à un rôle à
jouer.
Mémoire de fin d’études Florian GRENIER
Page
31
3.8) Intelligence artificielle collective et systèmes multi-agents
Concept :
En intelligence artificielle, un système multi-agent est un groupe d’unités travaillant
en collaboration, avec des interactions définies, dans un environnement donné. On essaie ici
de représenter l’ « Intelligence Collective » que l’on peut retrouver chez les hommes. C’est
l’ensemble des capacités cognitives d’un groupe d’individu issues des interactions entre ses
membres. Sachant que les individus n’ont pas conscience de la totalité des évènements
influençant le groupe, la connaissance de chaque membre est donc limitée à sa propre
perception de l’environnement, mais le groupe pourra quand même accomplir des tâches
complexes via un mécanisme appelé synergie (ou stigmergie).
Il existe un très grand nombre de formes d’intelligences collectives divergeant selon la
communauté et ses membres, ces systèmes seront tous plus ou moins complexes ou
sophistiqués. Contrairement aux colonies d’insectes, les humains créent des intelligentes
collectives très hétérogènes pour les raisons mentionnées ci-dessus alors que chez les
fourmis par exemple on retrouvera toujours globalement le même schéma « mécanique »
d’organisation.
Pour caractériser une intelligence collective simplement on identifiera :
- La portée de l’information : il faut que chaque membre du groupe ait une
connaissance partielle de l’information, il ne faut pas d’omniscience.
- Les règles de comportement : chaque individu doit se comporter selon des
règles de groupe simple et homogènes par rapport au système global.
- Les interactions : chaque membre du groupe doit être en relation avec un ou
plusieurs autres pour permettre un échange d’informations.
- L’intérêt de la collectivité : dans un système d’intelligence collective, chaque
individu doit trouver un sens à sa collaboration dans le système pour permettre
l’émergence d’une structure utile à la collectivité, le membre isolé trouvant son intérêt
à la collaboration et faisant preuve de performances supérieures à celles que l’on
pourrait observer dans un même environnement en solitaire.
Nous avons bien défini le concept d’intelligence collective, maintenant nous allons
voir comment les systèmes multi-agent s’organisent autour de cette discipline. Comme
précisé précédemment, le système multi-agent mettra en œuvre plusieurs « Agents » (entité
partiellement autonome) dans un environnement interagissant les uns avec les autres selon des
règles strictes.
Mémoire de fin d’études Florian GRENIER
Page
32
Mise en œuvre :
C’est un sujet traité depuis des années en Intelligence Artificielle Distribuée, il permet
la modélisation de sociétés et donc offre un champ d’application immense pouvant même
aller jusqu’aux sciences humaines. Pour se représenter simplement un système multi-agent,
imaginez un jeu vidéo de simulation de vie de famille, on aura :
- Un environnement : la maison disposant d’une métrique
- Des objets passifs : ce sont les objets sur lesquels peuvent intervenir les agents
(Nourriture, vase, voiture, four …).
- Les agents : notre famille d’humains simulés (Mathilde, Linda, Alex …).
- Des relations entre les objets et nos agents (Mathilde peut manger du pain
alors que Linda non car elle est intolérante au gluten).
- Des relations entre agents : liens de famille, notion de propriété …
- Un ensemble d’opérateurs : ce sont les outils avec lesquels nos agents vont
interagir sur les objets ou sur les autres agents (Alex sait faire du vélo).
- Un ensemble de capteur : permettant aux agents de se tenir informés de
l’évolution de l’environnement (il n’y a plus de pain sans gluten, le vélo est cassé …).
Pour concevoir un système multi agent, il y a quatre grandes questions à se poser :
- Comment les agents doivent-ils interagir ensemble dans le milieu et comment
le milieu réagira-t-il en retour ? On doit alors les munir d’un système de décision leur
permettant de planifier des actions à plusieurs.
- Quel sera le model cognitif de l’agent, comment l’individu appréhendera sa
relation au monde ? Pour cela, nous devons leur donner un modèle cognitif de
référence, de nombreux existent, mais on peut citer le plus connu d’entre eux : le BDI
(Beliefs-Desires-Intentions).
- Comment les agents doivent interagir ensemble ? quel support et quel
langage ? On leur donnera un système de communication, des langages tels que le
KQLM ou FIPA-ACL remplissent parfaitement cette fonction.
- Les agents vont-ils évoluer, apprendre ou s’adapter à la collectivité ? C’est un
sujet assez compliqué, on sait que certains virus peuvent s’adapter à leur
environnement par le biais de mutation mais aucune réelle bonne pratique n’est en
place actuellement.
Malheureusement, le fonctionnement éprouvé des systèmes multi-agents ne permet pas de
résoudre toutes les problématiques, d’où la création de réseaux de neurones artificiels.
Mémoire de fin d’études Florian GRENIER
Page
33
3.9) Réseaux de neurones artificiels
Un réseau neuronal artificiel est un groupe d’algorithmes et de méthodes mises en
places pour tenter d’approcher le fonctionnement du cerveau humain par le biais d’unités
de calculs (neurone) tentant de s’approcher le plus possible des neurones biologiques.
Fonctionnement d’un neurone biologique
La plupart du temps, ces réseaux de neurones sont optimisés par des méthodes
d’apprentissages tels que les algorithmes génétiques. Ils seront utilisés ensuite pour effectuer
une simulation de réactions cognitives indépendantes des idées propres au développeur, ceci
pouvant enchainer sur du raisonnement logique formel (ou « Deep Learning »).
Représentation classique d’un réseau neuronal
Le développement des réseaux de neurones et les avancées dans ce secteur sont
fortement liés à nos connaissances actuelles en neurosciences, en biologie et en cybernétique.
Mémoire de fin d’études Florian GRENIER
Page
34
Nous avons donc eu une forte évolution de la représentation des neurones dans les réseaux
neuronaux au fil du temps :
Le neurone formel :
C’est en 1950, après la publication de l’article « What the frog’s eye tells the frog’s
brain », que les neurologues Warren McCulloch et Walter Pitts constituèrent un modèle
simple de neurone biologique appelé neurone formel. La plupart du temps, un neurone formel
est constitué d’entrées et d’une sortie correspondant aux dendrites et à l’axone du véritable
neurone biologique. Dans un neurone, nous avons également des synapses provoquant une
action sois excitatrice sois inhibitrice au niveau des signaux reçus. Ces actions sont souvent
représentées par des coefficients numériques (poids synaptiques) associés aux différentes
entrées. Durant la phase d’apprentissage, on va alors modifier ces poids synaptiques pour
donner la pertinence nécessaires aux informations importantes. Lorsqu’une information arrive
en entrée du neurone, on va alors exécuter la fonction de transfert du neurone comprenant
comme variable le poids associé à l’entrée de l’information. Cette fonction de transfert nous
renverra une valeur qui sera alors comparée à une valeur seuil d’activation, si la valeur
calculée est supérieur à la valeur seuil, alors le neurone s’excite sinon son axone s’inhibe. En
connectant plusieurs de ces neurones on obtient le réseau de neurones formels. Il permettra,
après une période d’apprentissage, d’effectuer une opération de classification donnée
rapidement et en s’améliorant. Pour apprendre au réseau, on va ajuster les poids synaptiques
et les valeurs de seuil de chaque neurone du réseau pour obtenir un comportement optimal.
Le perceptron :
Le neurone formel remplis effectivement sa tâche mais ne fournit pas de méthode
d’adaptation des coefficients synaptiques et c’est ici que le perceptron intervient. C’est le
physiologiste Donald Hebb qui, en 1949, résout ce problème par la « règle de hebb » qui
permet d’ajuster les valeurs des coefficients synaptiques en fonction de leur activité. C’est-à-
dire que plus une synapse sera souvent excitée, plus son coefficient aura un gros impact sur la
fonction de transfert. Cette modification d’apparence légère permet au système d’apprendre
par expérience mais cela même si l’instructeur commet des erreurs ce qui est une révolution
dans le domaine. Le perceptron est aujourd’hui encore le modèle de neurone artificiel le plus
largement utilisé.
Mémoire de fin d’études Florian GRENIER
Page
35
Le perceptron multicouche :
Une fois le perceptron inventé et implémenté, l’intelligence artificielle fut une grande
désillusion car elle ne réussissait pas à répondre aux énormes attentes qu’elle suscitait. C’est
en 1986 que David Rumelhart introduit le perceptron multicouche. Il est la résultante du
couplage du perceptron standard et de la théorie de la « régularisation statistique » de
Vladimir Vapnik. Cette théorie permet d’anticiper et de réguler les phénomènes de
surapprentissage. Ceci se traduit par un arbitrage équivalent entre une modélisation trop
pauvre manquant de détails pour être réellement efficace, et une modélisation trop riche
faisant une généralité de cas pas forcément pertinent se retrouvant souvent dans un nombre
d’exemples trop petit.
3.10) Réalité virtuelle
La réalité virtuelle (VR), aussi appelée multimédia immersif ou encore réalité simulée
par ordinateur, est une technologie informatique reproduisant un environnement réel connu ou
imaginaire. Le but de cette manipulation est d’offrir à l’utilisateur une expérience la plus
immersive possible pouvant aller jusqu’à utiliser tous nos sens, elle permet également
l’interaction de l’utilisateur en son sein.
Aujourd’hui, la VR est en plein essor avec la sortie de l’Occulus Rift et l’HTC Vive.
L’amélioration des nouvelles technologies de VR sont dues aux chercheurs américains qui ont
permis le développement de cette technologie autant pour le grand public que pour l’industrie.
Certaines applications de VR tels que des jeux ou des applications ludiques mettent en
place de petites intelligences artificielles faibles comme des personnages non-joueurs, mais il
n’est pas impossible de projeter que dans le futur, les IA évolués des jeux vidéo seront
implémentés dans les applications de réalité virtuelle pour permettre une meilleure immersion
et une plus grande qualité d’expérience.
Les différents types de développement expliqués, je vais maintenant faire les corrélations
entre ceux-ci et les différents domaines d’applications possibles.
Mémoire de fin d’études Florian GRENIER
Page
36
4) Les domaines d’applications
Maintenant que les concepts sont posés, nous allons pouvoir analyser la présence et
l’impact de l’intelligence artificielle dans notre quotidien. Nous allons essayer d’exposer ici
les plus grandes utilisations de l’IA dans des domaines radicalement différents. On appuiera
ainsi le fait qu’elle est déjà omniprésente dans notre quotidien et qu’elle a déjà dépassé les
performances humaines dans des secteurs bien précis. On verra également des applications
moins axés sur la performance mais plus sur le côté pratique et le gain de temps. Cette partie
tentera de susciter votre curiosité pour vous donner envie de vous renseigner sur les
applications de l’intelligence artificielle car évidemment, la liste suivante restera non-
exhaustive et ne parlera que des plus gros sujets actuels.
4.1) Accessibilité et ergonomie
L’accessibilité est le fait qu’une application puisse être utilisée par le plus grand
nombre de personnes quel que soit le handicap. J’ai ajouté « ergonomie » ici car les deux
principes se retrouvent sur le fait qu’ils essaient tous deux de rendre l’utilisation d’un outil le
plus agréable et simple possible.
Nous allons donc commencer par parler des assistants personnels virtuels, ces
applications « futuristes » vous permettant de dialoguer et de poser des questions à une
machine et d’avoir une réponse en retour. Les plus connus sont Siri (Apple), Cortana
(Microsoft), SVoice (Samsung) et Google Now (Google). En se basant sur d’énormes bases
de données et des algorithmes de deep learning, les Assistants Personnels Virtuels offrent une
capacité de raisonnement ultra rapide.
Son rôle sera de répondre pertinemment à des requêtes potentiellement de tout ordre
(écriture d’un sms, traduction de texte ou encore réservation de billet). Pour effectuer cela
l’assistant virtuel devra recevoir ses informations via des données brutes (textes, images ou
son) qu’il analysera ensuite avec le serveur car ces applications sons toutes dépendantes d’un
serveur à distance à qui poser les questions, car évidemment, un tel système ne serait pas
supporté par les téléphones actuels.
Mais les assistants virtuels ne sont pas les seules applications de l’ia en accessibilité.
Google a créé en 2014, l’outil Inbox Gmail. C’est un outil destiné aux personnes n’ayant que
peu de temps pour s’occuper de l’administratif.
Mémoire de fin d’études Florian GRENIER
Page
37
Cet outil arrive à trier et classer les mails similaires, mettre en avant ceux qui sont
important et au contraire avoir tendance à masquer les inutiles. Bien évidemment que de
l’intelligence artificielle se cache derrière tout ça ! Mais le plus beau reste que fin 2015, la
multinationale annonçait la sortie de Smart Reply. Cette nouvelle fonctionnalité offre la
possibilité à l’application de répondre automatiquement (mais non sans votre accord) à vos
e-mail. Le réseau de neurones de Google va analyser votre syntaxe d’écriture et ordonner les
idées en champs lexicaux pour améliorer son fonctionnement. Ensuite quand vous recevrez un
e-mail, Smart Reply vous proposera trois réponses, si l’une d’entre elles vous convient, vous
n’avez qu’à cliquer dessus. C’est un énorme gain de temps pour les personnes recevant de
nombreux e-mails chaque jour.
En dehors de l’application web, nous retrouvons également l’Intelligence Artificielle
dans la domotique. Les produits Amazon Echo ou Google Home sont vos majordomes
virtuels. Ces applications résultent d’années d’apprentissage automatique, de
perfectionnement en reconnaissance vocale et en systèmes experts. Le système vocal repose
sur un algorithme de traitement du langage naturel sophistiqué et spécialement créé pour
l’occasion. Le Google home se présentera ainsi :
Il permet de reconnaitre une demande et d’y répondre si possible. Il permet de vous
donner la météo, mettre la radio, écouter de la musique via vos comptes Spotify, Amazon ou
Apple music. Il peut vous mettre en place des alarmes, des rendez-vous sur votre Google
calendar, effectuer des commandes sur internet, il a également accès à Wikipedia ce qui lui
permet de répondre à un grand nombre de questions de culture.
L’intelligence artificielle du Google Home est appelée Alexa, vous pouvez lui ajouter
des fonctionnalités en fonction de vos besoins et les plus téméraires peuvent également
développer des modules pour l’outil : lui apprendre à contrôler des éclairages sans fils ou
encore des thermostats pour que votre maison soit la plus adaptée à vos attentes.
Mémoire de fin d’études Florian GRENIER
Page
38
Malheureusement ces produits ne sont pas encore disponibles en dehors des Etats-
Unis, le Google home ne peut pas vous localiser hors du pays ce qui peut apporter des
problèmes lors de questions impliquant le fuseau horaire ou la localité.
Les applications d’intelligence artificielles se retrouvent également dans le domaine
bancaire.
4.2) Banque
Dans les banques, les systèmes experts commencent à faire leurs places entre les
différentes applications de gestion de fonds et d’assistance. Il existe des systèmes experts
d’évaluation des risques liés à l’octroi d’un crédit qui vont analyser les données d’un client
pour définir quels sont les risques et les probabilités de rentabilité d’un crédit quel qu’il soit.
Comme précisé dans le paragraphe sur les systèmes experts, le logiciel aura besoin d’un
expert humain qui va lui « expliquer » comment réagir à telle ou telle situation, le système va
apprendre de cet expert pour être par la suite plus rapide et efficace que celui-ci. En effet, une
banque dispose d’un grand nombre d’offres, un agent humain ne pourra jamais proposer la
totalité des offres et travaillera la plupart du temps avec les 10 ou 15 offres qu’il maitrise le
plus. Le problème c’est que cela enlève de la valeur ajoutée à ce que pourrait produire la
pluralité de leurs offres alors que ça devrait être un avantage pour eux face à la concurrence.
Les sociétés Yseop ou IBM disposent d’outils pouvant palier à ces problèmes : des
intelligences artificielles expertes en banques. Après la collecte d’informations chez le client,
l’outil va déterminer le produit le plus adapté. Il expliquera même au conseiller comment
présenter la solution aux clients, et en quoi cette solution est la meilleure pour eux et quels
sont les risques auxquelles ils font faces. Un tel outil offrira une hausse de 15 pourcents du
nombre de clients des banques l’utilisant. Il permettra également de mieux conseiller le client
et, par conséquent, de le fidéliser plus significativement.
Mais les systèmes d’analyse de crédit ne sont pas les seules intelligences artificielles
présentes dans nos banques. Certaine application de prédiction d’éléments métiers peuvent
également permettre de définir un taux d’attrait d’un client et même déterminer lorsqu’un
client souhaitera quitter la banque, tout en indiquant comment y remédier. Ces deux dernière
applications sont aujourd’hui largement répandues dans les banques et donc dans notre
quotidien sans que nous en soyons conscients.
Mémoire de fin d’études Florian GRENIER
Page
39
Par ailleurs, un autre type d’application commence à voir le jour : les chat-bot. Ils
permettent de court-circuiter le conseiller lors d’une phase de pré qualification du client et de
récupération d’informations. Le robot pourra également répondre à des questions répétitives
et simples soulageant ainsi les opérateurs qui pourront donc se concentrer sur des dossiers
plus importants.
Nous pouvons également appliquer l’ia dans la finance, ou les réseaux de neurones
travaillent quotidiennement.
4.3) Finance
Dans la finance, les enjeux sont énormes et il est important de prendre des décisions le
plus vite et le plus qualitativement possible ce qui demande une grande capacité de calcul.
C’est pour cela que la société Bridgwater Associates a engagé David Fiorucci, le créateur de
l’application Ibm Watson qui peut rivaliser avec l’homme sur un jeu de stratégie. Son but
étant de concevoir une intelligence artificielle capable de gérer un fond d’investissement
dans sa totalité. Pour ce faire, l’application va créer ses propres algorithmes en fonction de
données statistiques. Ce qui permettra d’analyser l’historique de l’évolution du marché et
ainsi doter l’algorithme d’une logique prédictive au sommet de l’innovation.
En effet cela fait une quinzaine d’années que les logiciels intelligents travaillent déjà
pour les marchés mais ce projet est une révolution du fait que pour celui-ci il n’y aura pas
besoin d’homme à l’origine des scénarios à suivre : la machine les définira par elle-même.
De plus dans ce genre de secteurs les machines ont de l’avenir car même les plus
talentueux ingénieurs ont du mal à faire des prédictions fiables quant aux tendances des
marchés. Mais ce genre de projet fait peur aux économistes car en 2010, une application mal
réglée fut lancée sur les marchés anéantissant certaines capitalisations boursières sur la route
et créant un crash. En effet, étant donné le grand nombre de stratégies possibles et de facteurs
externes, les courbes du marché peuvent subir de forts changements qui sont difficiles à
analyser et à pondérer pour une machine. Il reste néanmoins intéressant de voir les
performances que peuvent produire ces algorithmes mais il faut également être conscient des
responsabilités déléguées au système et pouvoir dans tous les cas le contrôler.
Mémoire de fin d’études Florian GRENIER
Page
40
L’utilisation des systèmes intelligents dans les finances peuvent mener à réflexion.
Mais il existe un autre domaine ou les applications d’IA sont controversés : le militaire.
4.4) Militaire
De nombreux algorithmes de systèmes experts, de reconnaissance d’images ainsi
que des réseaux neuronaux sont utilisés dans le militaire. Le système ALPHA fut conçu pour
contrôler une flotte de drones dans des missions de combat aérien en environnement simulé.
Le système a déjà surpassé ses prédécesseurs ainsi qu’une série d’humains aux commandes
d’avions virtuels. Le programme disposait de quatre avions pour défendre un littoral tandis
que les attaquants disposaient des deux avions plus lourdement armés et même avec un
avantage de vitesse parfois. A chaque fois, aucun des avions d’ALPHA ne fut détruit. Les
témoignages des pilotes affirment que le système était le plus rapide, agressif et réactif qu’ils
ont eu à affronter.
Pour parvenir à un tel résultat, la société Psibernetix a mis en place des techniques
dérivées de logique floue consistant à analyser un grand nombre de possibilités avant de
prendre une décision. L’IA fonctionne avec un processeur 3.2 Ghz et va analyser la totalité de
ses entrées provenant des capteurs tous les 6.4 millisecondes. Par la suite elle va organiser ces
données, cartographier le scénario, analyser l’état du combat et modifier ses décisions pour
s’adapter aux changements analysés. Les développeurs du système affirment qu’ils peuvent
encore augmenter les performances en perfectionnant l’algorithme génétique d’apprentissage
automatique qui enseigne les bonnes pratiques au logiciel.
Le système est encore en phase de test mais la société Psibernetix estime que dans un
futur proche, son intelligence artificielle pourra travailler en collaboration avec des pilotes
humains pour leurs permettre d’effectuer les meilleures actions le plus rapidement possible.
Elle pourrait également contrôler des escouades de drones pouvant effectuer des missions
périlleuses tandis que les hommes s’occuperaient des missions de support et de soutient mois
dangereuses.
De nombreuses autres applications existent pour le militaire, tels que les systèmes
d’aide à la décision. Des applications qui vont travailler avec de grandes masses de données et
les analyser le plus rapidement possible pour produire des analyses rigoureuses et proposer
des solutions à un problème donné dans un temps relativement court.
Mémoire de fin d’études Florian GRENIER
Page
41
Des problématiques subsistent malgré tout lorsque l’on essaie d’aller plus loin et de
mettre en service ce genre de systèmes. Des questions d’éthiques se posent, si une machine
détient le droit de tuer, sera-t-elle en mesure de distinguer un civil d’un ennemi, pourrait-
elle mesurer ses frappes si des dommages collatéraux étaient probables ? Autant de questions
qui nous montrent qu’on est encore loin d’avoir abouti à une technologie fiable à 100%, mais
les applications sont effectivement de plus en plus impressionnantes.
Dans le divertissement numérique, on retrouvera des IA et nous allons nous pencher
sur ses applications dans les jeux vidéo.
4.5) Jeux
Lorsque l’on parle d’intelligence artificielle, on ne peut pas omettre les jeux vidéo. La
plupart du temps, elle est utilisée pour donner vie aux Personnages Non-Joueurs (PNJs). Mais
contrairement à la robotique par exemple, le but ici ne sera pas forcement de donner un
comportement approché de celui de l’humain au PNJ mais de donner du challenge au
joueur. Nous avons les algorithmes de résolution de problèmes travaillant sur des jeux de
stratégie tels que les échecs ou le jeu de go. Aujourd’hui ces jeux ont été battus par des
intelligences artificielles de grande qualité et les meilleurs joueurs au monde ne peuvent plus
rivaliser avec ces programmes.
Jeu de go
Les premières intelligences artificielles contrôlant des PNJ arrivèrent dans les années
70 avec notamment le jeu Star Trek qui utilisait des Stored Patterns pour contrôler ces PNJs.
Ce sont des chemins prédéfinis et des actions simples à conditions.
Mémoire de fin d’études Florian GRENIER
Page
42
Par la suite, entre 1970 et 1990, l’intelligence artificielle s’améliora significativement
avec l’âge d’or des jeux d’arcades offrant de plus en plus de mouvements possibles, des
niveaux de difficultés croissants, tout cela déterminé par des fonctions de hachage.
C’est dans les années 1990 que les nouvelles formes d’IA virent le jour. Les nouvelles
technologies conduisirent à l’utilisation d’automates finis, de stratégie en temps réel prenant
en compte un grand nombre de paramètres. Les joueurs demandèrent alors des IA de plus en
plus « Humaines » pour améliorer l’immersion. C’est ainsi qu’apparurent des jeux tels que
Creatures (1998), utilisant de l’apprentissage automatique, à l’aide de réseaux de neurones, les
créatures apprennent à interagir avec leur environnement et avec le joueur.
Aujourd’hui les jeux vidéo les plus perfectionnés peuvent utiliser des arbres de
recherche, de l’apprentissage automatique et des réseaux de neurones. De nombreux jeux
utilisent également le « pathfinding », c’est la technique permettant de se déplacer d’un point
vers un autre en empruntant l’itinéraire le plus optimisé. Cette technique est également
utilisée dans de nombreux autres domaines tels que la robotique ou encore le routage internet.
L’algorithme le plus utilisé pour cette fonction aujourd’hui est l’algorithme de Dijkstra couplé
avec l’algorithme A*. Cet algorithme se base sur la théorie des graphes avec les calculs de
chemin critique. Contrairement à un algorithme de Dijkstra seul, l’algorithme A* va orienter
sa recherche au lieu de tester toutes les possibilités ce qui permettra un gain de temps
significatif.
Les algorithmes d’intelligence artificielle des jeux vidéo restent aujourd’hui assez
simple et sans réel aspect scientifique. Le temps nécessaire à la réalisation d’une IA sérieuse
ne serait pas rentable pour une société de jeux vidéo et pourrait offrir des résultats plus
qu’aléatoires. Mais si nous mettions en place ce genre d’IA, nous pourrions avoir des jeux qui
ne seraient jamais les mêmes pour chaque joueur et chaque partie jouée. Une nouvelle forme
de jeux pourrait bien voir le jour d’ici quelques années, les jeux infinis, ayant autant de
possibilités de comportement qu’un humain et représentant parfaitement l’effet papillon au fil
du temps.
Nous allons maintenant analyser l’impact de l’IA en médecine.
Mémoire de fin d’études Florian GRENIER
Page
43
4.6) Médecine
Dans la médecine, il y a de nombreuses connaissance et un grand nombre de relation
cause-effet. La société IBM avec son intelligence artificielle Watson, travaille sur
l’amélioration des diagnostiques en médecine depuis plusieurs années. En effet, Watson peut
analyser la totalité des informations d’un patient puis ensuite travailler en collaboration avec
un médecin pour déterminer au mieux le traitement à prescrire au patient.
En radiologie, les systèmes sont capables d’analyser et de comparer un grand nombre
d’informations très rapidement pouvant ainsi proposer des solutions et des diagnostiques que
des médecins n’auraient pas pu voir par manque de temps et de mémoire.
Mais si une application peut effectuer des diagnostiques, quel est maintenant le rôle du
médecin ? Le médecin à un rôle humain qui ne peut pas actuellement être remplacé par une
machine. Le médecin est là pour aider son patient à comprendre son état, il est là pour utiliser
son sens critique pour déterminer la véracité des propositions des logiciels. Il sera toujours
nécessaire d’avoir un médecin car imaginons une situation grave avec une décision
importante à prendre, si Watson propose une solution radicalement différente de celle pensée
par le médecin, faut-il se fier à lui ? Etant donné que l’outil est une « boite-noire » et que
personne ne sait comment il fonctionne pour effectuer ses corrélations et donner ses
diagnostiques.
En médecine prédictive, il est compliqué pour un humain de donner des résultats de
qualités, conséquence du grand nombre de facteurs génétiques et environnementaux. En
utilisant des algorithmes basés sur des réseaux de neurones, ayant subis de l’apprentissage
automatique sur de grands nombres d’exemples et tout ceci couplé avec des systèmes
experts, on pourrait offrir des résultats de qualités rapidement. On va commencer par utiliser
un perceptron multicouche, lui donner un grand nombre d’exemples clairement identifié. Ici
le réseau de neurones va devoir pondérer les relations de causalités, ce que ne fait pas un
humain de manière fiable. Ensuite on essaie de donner des exemples inconnus au système et
s’il arrive à donner des résultats de qualité, c’est alors qu’il a réussi à comprendre la relation
entre les facteurs d’entrées et le diagnostic.
Mais les réseaux de perceptrons multicouches ne sont pas les seuls types d’intelligence
artificielle utilisés en médecine. Ils seront utilisés dans des situations ou on ne connait pas les
réponses aux problèmes ou si l’on cherche une optimisation des procédés. Mais si l’on
souhaite uniquement automatiser un processus bien connu et avéré, on utilisera surement un
réseau bayésien qui sera plus adapté à la situation.
Mémoire de fin d’études Florian GRENIER
Page
44
Le dernier domaine d’application que je vais expliquer est la logistique.
4.7) Logistique
Les applications dans ce domaine sont vastes, autant pour le contrôle de la circulation,
la gestion de stocks, le calcul de plan de productions, l’aide à la décision ou la réalisation
d’actes de commandes etc… Ce sont toutes les applications relatives à la maitrise de la
circulation physique, la distribution et les transports de produits. L’informatique est présente
partout en logistique, les points nodaux de réseaux de transport (plateformes, aéroports
etc…). En gestion des stocks par exemple, les applications peuvent calculer, surveiller,
décider et prévoir l’évolution en fonction de méthodes d’analyses statistiques poussées.
4.8) Robotique
La robotique est l’ensemble des techniques d’ingénierie
(informatique, électroniques, mécanique…) permettant la
conception et la réalisation de machines automatiques ou de robots.
Une définition de robot fut donnée par l’unité de recherche ATILF
(Analyse et Traitement Informatique de la Langue Française) :
« Appareil effectuant, grâce à un système de commande
automatique à base de micro-processeur, une tâche précise pour
laquelle il a été conçu dans le domaine industriel, scientifique ou
domestique ». On aura donc deux types de robots, la machine
physique possédant des capteurs et un système logique et aussi le
robot logiciel (Bot).
La robotique est le domaine dans lequel les différents types d’intelligences artificielles
peuvent quasiment tous êtres implémentés. Aujourd’hui, la plupart des robots ne sont que des
machines exécutant des taches expertes, mais sans réel apprentissage ou réflexion. Mais on
pourrait imaginer des robots mettant en place une acquisition et un apprentissage
automatique des connaissances sur le langage naturel par exemple nous donnant ainsi un
robot potentiellement capable de communiquer. On pourra aussi lui enseigner les calculs
formels et la notion de résolution de problèmes pour le rendre utile. Imaginons coupler tout
cela a une reconnaissance des formes, le robot serait alors capable de reconnaitre un visage,
lui attribuer un nom, et d’autres caractéristiques.
Mémoire de fin d’études Florian GRENIER
Page
45
On pourra également parler de la microrobotique et des nanorobots qui sont un
champ d’étude en plein essor. Les enjeux d’une telle technologie sont conséquents car
pouvant faire avancer nos capacités médicales significativement, le but étant d’injecter ces
microrobots dans un organisme avec un but précis (par exemple reconnaitre et détruire des
cellules cancéreuses), et les laisser faire ou les contrôler à distance pour les approcher au plus
de leur but.
5) Dépasser l’homme ?
Maintenant que nous avons analysé l’impact de l’intelligence artificielle sur notre
quotidien et sa présence dans le monde, il convient de se poser la question de notre utilité, et
plus précisément de l’évolution des performances de l’IA possible dans le futur. Nous
allons voir ici si l’intelligence artificielle nous a dépassé ou non, et ce qu’il est possible
d’entrevoir pour ce domaine de recherche dans un futur proche ou plus éloigné. On analysera
également les risques possibles et les solutions à mettre en place pour prévenir de tels risques.
5.1) Performances : Homme / Machine
En termes de performances de calcul, de mémorisation et de classement, la machine
a largement dépassé l’homme, encore plus significativement avec l’arrivée des nouveaux
processeurs quantiques. Mais pour des opérations de réflexions, de raisonnement ou de
communication, l’homme est toujours le plus performant. En effet, la machine est loin d’avoir
nos capacités de pensées et la seule intelligence que l’on arrive à obtenir aujourd’hui reste une
exécution de lignes de codes dont l’origine est un développeur humain. Pour être plus
rigoureux, je comparerais les performances d’une machine avec celle du cerveau humain.
La réflexion :
Commençons par la réflexion, à la base d’une machine, les données sont actuellement
traités avec des bits faisant partie d’un système binaire (0 ou 1). Un humain travaille avec une
infinité de réseaux de neurones et est par conséquent capable d’appréhender une ambigüité
(si, mais…) alors que la machine restera bloquée sur un système binaire (oui ou non).
Mémoire de fin d’études Florian GRENIER
Page
46
Les connexions d’un ordinateur sont figées, si l’on crée un robot ayant un capteur
de son, d’image et de température, si l’un d’entre eux tombe en panne, le système ne
fonctionne plus par inexistence de possibilités d’adaptation. Le cerveau humain, au
contraire, possède des milliards de neurones constamment en train de se modifier, de créer
de nouvelles connexions pour répondre à une problématique ou une modification
environnementale, ce qui amène à un cerveau unique pour chaque être humain. Cela permet
également au cerveau de se « reprogrammer », si jamais une fonction n’est plus assurée par
une zone du cerveau, alors de nouvelles connexions se créeront pour palier à ce
dysfonctionnement. Par exemple, une personne aveugle pourra réussir à se diriger grâce à
l’ouïe et le touché alors qu’un robot avec une caméra endommagée, ne sera en aucun cas
capable de traiter le moindre signal visuel.
Néanmoins, la machine dispose d’une vitesse de « réflexion » largement supérieure à
celle du cerveau humain. La vitesse de transport de l’information pour un ordinateur est la
vitesse de la lumière (300 000 km/s) alors que dans le cerveau humain, les informations se
déplacent à une vitesse approximative de 6 à 10 m/s. La différence est qu’un humain possède
des milliards de neurones contrairement à un processeur possédant un nombre minime de
transistors. C’est une des limitations actuelle de l’émergence d’une intelligence artificielle
forte.
La mémoire :
Au niveau de la mémoire, une machine est capable de manipuler une quantité quasi
infinie d’informations. Le stockage de cette mémoire peut s’effectuer sur différents types de
matériel, un disque dur classique ou SSD etc… Mais à la différence du cerveau humain, la
machine grave ses informations en dur, une information écrite est infaillible chez
l’ordinateur ce qui n’est pas le cas chez l’homme. La capacité à enregistrer de l’homme étant
beaucoup plus faible, le cerveau enregistrera les informations par le biais d’associations de
différentes choses entre elles. La mémoire s’effectue au niveau des synapses qui
réévalueraient leur poids synaptique en fonction de l’accès à l’information. Ce procédé
entraine une perte des informations jamais consultée et une réécriture constante de la mémoire
ce qui nous donne une mémoire peu fiable.
Mémoire de fin d’études Florian GRENIER
Page
47
Le traitement de l’information :
Au niveau du traitement de l’information, il y a les neurones pour le cerveau, et les
transistors pour la machine. On peut se les représenter par des interrupteurs laissant passer ou
non un courant. L’ordinateur n’est donc qu’un agrégat de conditions entre le oui/non et les
opérateurs logiques et/ou. Avec ceci on obtient la machine de calcul que sont les ordinateurs
actuels. Les neurones eux, ont un fonctionnement plus complexe, se sont des entités reliées à
de nombreuses autres en sortie et étant reliées elles-mêmes à de nombreux neurones en
entrée. On peut avoir des messages en même temps ou encore une variation de la vitesse des
messages et de leur intensité. Ce qui montre déjà une différence drastique entre le
fonctionnement de l’homme et de la machine, ce qui ne simplifie pas les problématiques de
comparaison des performances homme/machine. En effet, le cerveau est loin du
fonctionnement binaire d’un processeur.
Pour terminer, voici un tableau récapitulatif des performances entre le cerveau et un
ordinateur :
Mémoire de fin d’études Florian GRENIER
Page
48
5.2) La transhumanité et la nanorobotique
Transhumanisme, nanorobotique, sciences cognitives et biotechnologies sont des
sujets qui font rêver. Tous ces films de science-fiction où l’on voit des hommes transférer leur
conscience dans des androïdes, des êtres moitié humains, moitié machines, pouvant vivre
plusieurs siècles. Soigner des cancers avec des machines de la taille d’une molécule qu’on
injecterait directement dans les organismes. Tous ces sujets sont de réels sujets de recherches
et nous avons bien avancé dans ces domaines. Le transhumanisme est le fait de modifier
technologiquement un être humain pour l’améliorer, lui donner de nouvelles capacités et
le faire passer à un état d’H+, un homme supérieur. Actuellement nous avons des prothèses de
plus en plus perfectionnées contrôlés directement par les muscles du sujet, de plus en plus
solides et de plus en plus précises. Mais nous n’arrivons toujours pas à reproduire un membre
dans son exactitude et à l’interfacer avec le corps humain.
Des chercheurs de Californie on réussit à mettre au point un dispositif permettant
d’améliorer l’apprentissage d’un humain via des stimulations transcrâniennes. En d’autres
termes, ils ont réussi à alimenter directement un cerveau en informations, liées
évidemment à l’activité actuelle de celui-ci. Beaucoup de chercheurs transhumanistes
cherchent à trouver des moyens de rallonger l’espérance de vie, de rendre l’homme plus fort
etc…
Mais est-ce bien une bonne idée ? La vie et la mort sont intimement liés et se
définissent l’une et l’autre par leur inverse. De gros problèmes peuvent voir le jour avec
l’avènement de ce genre de technologies, qui en sera bénéficiaire ? Les plus riches surement,
ou si cela devient à la portée de tout le monde nous finirons par être trop nombreux sur la
planète sachant que nous commençons déjà à être surpeuplés. Ce genre de thèses sur
l’évolution de l’intelligence artificielle inquiète beaucoup les grands de ce monde (Elon
Musk, Bill Gates et Stephen Hawking notamment). Ils affirment que si une intelligence
légèrement supérieure voyait le jour, nous ne pourrions pas la contrôler, mais nous
expliquerons plus en détails les risques dans la partie prévue à cet effet.
Mémoire de fin d’études Florian GRENIER
Page
49
5.3) Artificial Narrow Intelligence
L’Artificial Narrow Intelligence (ANI) correspond à la capacité de traitement de
problèmes dans un domaine précis. Tout commença avec les systèmes jouant et gagnant
aux échecs comme le Deep Blue d’IBM en 1997, puis ensuite avec des systèmes experts
pointus comme dans certains secteurs de la santé, avec notamment les systèmes d’aide au
diagnostic.
On peut aussi citer les moteurs de recherche (Google etc..), la détection de fraudes
bancaires, le système d’aide au crédit de particuliers, la conduite automatique ou assistée
(avec la Google Car), Apple SIRI, Microsoft Cortana et Google Translate. Si l’intelligence
artificielle n’imite pour l’instant toujours pas l’homme, la force brute et l’usage d’éléments
techniques dont l’homme ne dispose pas comme la vitesse de traitement et le stockage de gros
volumes de données permettent déjà à la machine de dépasser l’homme dans de nombreux
domaines.
5.4) Artificial General Intelligence
L’Artificial General Intelligence (AGI) correspond au niveau d’intelligence
équivalent à celui de l’homme, avec un côté polyvalent, avec la capacité à raisonner, penser,
analyser des données et résoudre des problèmes variés.
On peut intégrer dans ce niveau un grand nombre des capacités humaines : l’usage du
langage à la fois comme émetteur et récepteur d’informations, la vue et les autres sens, la
mémoire et en particulier la mémoire associative, la pensée, le jugement et la prise de
décisions,ela résolution de problèmes multi-facettes, l’apprentissage par la lecture ou
l’expérience, la perception du monde et de soi-même, l’invention et la créativité, la capacité
àdréagir à l’imprévu dans un environnement complexe physique commeeintellectuel ou
encore la capacité d’anticipation. On peut y ajouter les sentiments et l’empathie, les envies et
les désirs et aussi le rationnel, la remise en question.
Pour l’instant, on en est encore loin, même si certaines de ces capacités notamment
linguistiques et de raisonnement général sont en train de voir le jour avec plus ou moins de
précisions et de viabilités.
Mémoire de fin d’études Florian GRENIER
Page
50
L’AGI dépend à la fois des progrès matériels et de notre compréhension toujours en
évolution du fonctionnement du cerveau humain qui fait partie du vaste champ de la
neurophysiologie, allant de la neurobiologie à ladneuropsychologie. Le fonctionnement du
cerveau apparaitdau gré des découvertes comme étant bien plus complexe et riche
qu’imaginé. Les neurones seraient alors capables de stocker des informations analogiques et
non pas binaires, ce qui en multiplierait la capacité de stockage de plusieurs ordres de
grandeur par rapport à ce que l’on croyait jusqu’à il y a peu de temps. On sait par contre que
le cerveau est à la fois ultra-massivement parallèle avec ses trillions de synapses reliant les
neurones entre elles mais très lent (“clock” de 100 Hz maximum).
5.5) Artificial Super Intelligence
L’Artificial Super Intelligence (ASI) est la continuité logique de l’étape précédente,
liée à la puissance des machines qui se démultiplie et se distribue plus facilement que celle
d’un cerveau humain avec ses entrées-sorties et ses capacités de stockages et de traitement
limitées. A ce niveau, l’intelligence de la machine dépasse celle de l’homme dans tous les
domaines y compris dans la créativité et même dans l’agilité sociale. Le point de dépassement
est une “singularité”. Il est évoqué dans de nombreux ouvrages comme dans « The
Singularity is Near » de Ray Kurzweil.
Dans la pratique, l’IA d’aujourd’hui va déjà bien au-delà des capacités humaines,
notamment lorsque la mémoire est en jeu, et également avec les vitesses de calcul. La capacité
des systèmes experts, et notamment d’IBM Watson, à brasser d’énormes volumes
d’information fournit des capacités inaccessibles à n’importe quel humain, même surdoué.
321480908-Memoire-Intelligence-Artificielle.pdf
321480908-Memoire-Intelligence-Artificielle.pdf
321480908-Memoire-Intelligence-Artificielle.pdf
321480908-Memoire-Intelligence-Artificielle.pdf
321480908-Memoire-Intelligence-Artificielle.pdf
321480908-Memoire-Intelligence-Artificielle.pdf
321480908-Memoire-Intelligence-Artificielle.pdf
321480908-Memoire-Intelligence-Artificielle.pdf

Contenu connexe

Similaire à 321480908-Memoire-Intelligence-Artificielle.pdf

CIAN-David_Compte_Rendu_PP
CIAN-David_Compte_Rendu_PPCIAN-David_Compte_Rendu_PP
CIAN-David_Compte_Rendu_PPDavid Cian
 
Livre blanc information reseaux sociaux et innovation - guillaume rovere
Livre blanc   information reseaux sociaux et innovation - guillaume rovereLivre blanc   information reseaux sociaux et innovation - guillaume rovere
Livre blanc information reseaux sociaux et innovation - guillaume rovereAlban Jarry
 
Les jeunes Français, l'intelligence artificielle et l'emploi
Les jeunes Français, l'intelligence artificielle et l'emploiLes jeunes Français, l'intelligence artificielle et l'emploi
Les jeunes Français, l'intelligence artificielle et l'emploiHarris Interactive France
 
Dossier de Conception d'OPI - DreamTime
Dossier de Conception d'OPI - DreamTimeDossier de Conception d'OPI - DreamTime
Dossier de Conception d'OPI - DreamTimeRoyer Sophie
 
Éducation et numérique : quelques étapes
Éducation et numérique : quelques étapesÉducation et numérique : quelques étapes
Éducation et numérique : quelques étapesBenoit Lacherez
 
Livre Blanc Big Data et Marketing - Chapitre III
Livre Blanc Big Data et Marketing - Chapitre IIILivre Blanc Big Data et Marketing - Chapitre III
Livre Blanc Big Data et Marketing - Chapitre IIIAproged
 
Intelligence collective dans les environnements numériques : pourquoi et comm...
Intelligence collective dans les environnements numériques : pourquoi et comm...Intelligence collective dans les environnements numériques : pourquoi et comm...
Intelligence collective dans les environnements numériques : pourquoi et comm...Isabelle GUYOT
 
Cours tice groupe corinne alou rodri tanoh
Cours tice groupe corinne alou rodri tanohCours tice groupe corinne alou rodri tanoh
Cours tice groupe corinne alou rodri tanohCFIDIA
 
1340774899 cahier anr-4-intelligence-artificielle
1340774899 cahier anr-4-intelligence-artificielle1340774899 cahier anr-4-intelligence-artificielle
1340774899 cahier anr-4-intelligence-artificielleMaxime MAZON
 
Emilien simon mémoire - version finale a4 double
Emilien simon   mémoire - version finale a4 doubleEmilien simon   mémoire - version finale a4 double
Emilien simon mémoire - version finale a4 doubleEmilien Simon
 
12 preao-pergaud stg
12 preao-pergaud stg12 preao-pergaud stg
12 preao-pergaud stgamazonai
 
Les perspectives de la curation de contenu dans le Web 2.0
Les perspectives de la curation de contenu dans le Web 2.0Les perspectives de la curation de contenu dans le Web 2.0
Les perspectives de la curation de contenu dans le Web 2.0David Wise
 
Le progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquencesLe progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquencesFernando Alcoforado
 
Quel quotidien bercé d'IA créons-nous ?
Quel quotidien bercé d'IA créons-nous ?Quel quotidien bercé d'IA créons-nous ?
Quel quotidien bercé d'IA créons-nous ?Aymeric
 
20190414 balladoradio sarah_achard
20190414 balladoradio sarah_achard20190414 balladoradio sarah_achard
20190414 balladoradio sarah_achardSarah A.
 
Conférence symposium des rocheuses août 2014
Conférence symposium des rocheuses août 2014Conférence symposium des rocheuses août 2014
Conférence symposium des rocheuses août 2014Jacques Cool
 
Trend Obs 2019 : (AMERICA) I am what I do
Trend Obs 2019 : (AMERICA)  I am what I doTrend Obs 2019 : (AMERICA)  I am what I do
Trend Obs 2019 : (AMERICA) I am what I doIpsos France
 
Petit déjeuner linguaphone - 30 juin 2011
Petit déjeuner linguaphone  - 30 juin 2011Petit déjeuner linguaphone  - 30 juin 2011
Petit déjeuner linguaphone - 30 juin 2011linguaphone
 

Similaire à 321480908-Memoire-Intelligence-Artificielle.pdf (20)

CIAN-David_Compte_Rendu_PP
CIAN-David_Compte_Rendu_PPCIAN-David_Compte_Rendu_PP
CIAN-David_Compte_Rendu_PP
 
Livre blanc information reseaux sociaux et innovation - guillaume rovere
Livre blanc   information reseaux sociaux et innovation - guillaume rovereLivre blanc   information reseaux sociaux et innovation - guillaume rovere
Livre blanc information reseaux sociaux et innovation - guillaume rovere
 
Les jeunes Français, l'intelligence artificielle et l'emploi
Les jeunes Français, l'intelligence artificielle et l'emploiLes jeunes Français, l'intelligence artificielle et l'emploi
Les jeunes Français, l'intelligence artificielle et l'emploi
 
Dossier de Conception d'OPI - DreamTime
Dossier de Conception d'OPI - DreamTimeDossier de Conception d'OPI - DreamTime
Dossier de Conception d'OPI - DreamTime
 
Éducation et numérique : quelques étapes
Éducation et numérique : quelques étapesÉducation et numérique : quelques étapes
Éducation et numérique : quelques étapes
 
Livre Blanc Big Data et Marketing - Chapitre III
Livre Blanc Big Data et Marketing - Chapitre IIILivre Blanc Big Data et Marketing - Chapitre III
Livre Blanc Big Data et Marketing - Chapitre III
 
Intelligence collective dans les environnements numériques : pourquoi et comm...
Intelligence collective dans les environnements numériques : pourquoi et comm...Intelligence collective dans les environnements numériques : pourquoi et comm...
Intelligence collective dans les environnements numériques : pourquoi et comm...
 
Cours tice groupe corinne alou rodri tanoh
Cours tice groupe corinne alou rodri tanohCours tice groupe corinne alou rodri tanoh
Cours tice groupe corinne alou rodri tanoh
 
1340774899 cahier anr-4-intelligence-artificielle
1340774899 cahier anr-4-intelligence-artificielle1340774899 cahier anr-4-intelligence-artificielle
1340774899 cahier anr-4-intelligence-artificielle
 
Digital.pdf
Digital.pdfDigital.pdf
Digital.pdf
 
Emilien simon mémoire - version finale a4 double
Emilien simon   mémoire - version finale a4 doubleEmilien simon   mémoire - version finale a4 double
Emilien simon mémoire - version finale a4 double
 
12 preao-pergaud stg
12 preao-pergaud stg12 preao-pergaud stg
12 preao-pergaud stg
 
Ibrain
IbrainIbrain
Ibrain
 
Les perspectives de la curation de contenu dans le Web 2.0
Les perspectives de la curation de contenu dans le Web 2.0Les perspectives de la curation de contenu dans le Web 2.0
Les perspectives de la curation de contenu dans le Web 2.0
 
Le progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquencesLe progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquences
 
Quel quotidien bercé d'IA créons-nous ?
Quel quotidien bercé d'IA créons-nous ?Quel quotidien bercé d'IA créons-nous ?
Quel quotidien bercé d'IA créons-nous ?
 
20190414 balladoradio sarah_achard
20190414 balladoradio sarah_achard20190414 balladoradio sarah_achard
20190414 balladoradio sarah_achard
 
Conférence symposium des rocheuses août 2014
Conférence symposium des rocheuses août 2014Conférence symposium des rocheuses août 2014
Conférence symposium des rocheuses août 2014
 
Trend Obs 2019 : (AMERICA) I am what I do
Trend Obs 2019 : (AMERICA)  I am what I doTrend Obs 2019 : (AMERICA)  I am what I do
Trend Obs 2019 : (AMERICA) I am what I do
 
Petit déjeuner linguaphone - 30 juin 2011
Petit déjeuner linguaphone  - 30 juin 2011Petit déjeuner linguaphone  - 30 juin 2011
Petit déjeuner linguaphone - 30 juin 2011
 

321480908-Memoire-Intelligence-Artificielle.pdf

  • 1. Y-NOV Ingésup M2 Développement Mémoire de fin d’études Entre prouesses technologiques et volonté d’innovation, l’intelligence artificielle dépassera-t-elle l’homme ? GRENIER Florian / ATOS 2015/2016
  • 2. Mémoire de fin d’études Florian GRENIER Page 1
  • 3. Mémoire de fin d’études Florian GRENIER Page 2 Table des matières Remerciements........................................................................................................................4 Introduction............................................................................................................................5 1) Contexte ..........................................................................................................................7 1.1) Qu’est-ce que l’intelligence ? .......................................................................................7 1.2) Les processus cognitifs................................................................................................8 1.3) Qu’est-ce que l’intelligence artificielle ?........................................................................9 2) Les différents courants d’intelligences artificielles ...........................................................11 2.1) Symbolisme ou Cognitivisme.........................................................................................11 2.2) Connexionnisme...........................................................................................................13 2.3) Comportementalisme ....................................................................................................14 3) Les types de développement............................................................................................16 3.1) Les systèmes experts.....................................................................................................16 3.2) Algorithmes génétiques .................................................................................................18 3.3) Acquisition de connaissances, apprentissage automatique ..................................................20 3.4) Traitement automatique du langage naturel ......................................................................23 3.5) Calcul formel ...............................................................................................................24 3.6) Résolution de problèmes................................................................................................26 3.7) Sémantique et indexation...............................................................................................29 3.8) Intelligence artificielle collective et systèmes multi-agents.................................................31 3.9) Réseaux de neurones artificiels.......................................................................................33 3.10) Réalité virtuelle ..........................................................................................................35 4) Les domaines d’applications ...........................................................................................36 4.1) Accessibilité et ergonomie .............................................................................................36 4.2) Banque........................................................................................................................38 4.3) Finance........................................................................................................................39 4.4) Militaire ......................................................................................................................40 4.5) Jeux ............................................................................................................................41 4.6) Médecine.....................................................................................................................43 4.7) Logistique....................................................................................................................44 4.8) Robotique ....................................................................................................................44 5) Dépasser l’homme ? .......................................................................................................45 5.1) Performances : Homme / Machine ..................................................................................45 5.2) La transhumanité et la nanorobotique ..............................................................................48 5.3) Artificial Narrow Intelligence.........................................................................................49
  • 4. Mémoire de fin d’études Florian GRENIER Page 3 5.4) Artificial General Intelligence ........................................................................................49 5.5) Artificial Super Intelligence ...........................................................................................50 5.6) Les limites ...................................................................................................................51 5.7) Les risques...................................................................................................................53 6) Conclusion.....................................................................................................................56 7) Webographie .................................................................................................................58
  • 5. Mémoire de fin d’études Florian GRENIER Page 4 Remerciements Je tiens à remercier mon Ecole Y-Nov pour m’avoir permis de suivre un enseignement de qualité et une formation professionnalisante au sein de son groupe durant les trois années que j’ai passé en son sein. Je remercie également mon tuteur de la française des jeux Rémi Juanes et les autres membres du socle du CDS d’Atos pour leur patience et leur disponibilité lorsque j’avais besoins de leurs avis et conseils. Je remercie vivement mon maître de stage Rémi Mertz pour ses disponibilités d’autant plus que nous ne sommes pas dans la même zone géographique. Enfin, je tiens à remercier ma famille et mes amis pour le soutient que j’ai pu avoir durant la rédaction de ce document.
  • 6. Mémoire de fin d’études Florian GRENIER Page 5 Introduction Depuis l’enfance je cultive une passion pour la science-fiction, les robots et toutes les possibles évolutions technologiques pouvant me faire rêver. Je me suis donc documenté, j’ai lu beaucoup de revues scientifiques pour suivre les avancées technologiques. J’ai également regardé un grand nombre de séries et de films sur le propos ne faisant qu’amplifier ma passion. C’est donc tout naturellement que j’ai orienté mes études dans la technologie pour essayer d’être toujours à jour et à la pointe des nouvelles prouesses techniques. Aujourd’hui en cinquième année d’école d’ingénieur en informatique, il me fallait trouver un sujet de mémoire pour la fin de mon cycle, et évidemment, je cherchais un thème sur la technologie. Je le voulais compliqué et d’actualité pour apprendre de ces recherches et de ce travail. J’ai donc choisi un thème qui aujourd’hui passionne et fait beaucoup rêver : l’intelligence artificielle. Entre les nombreuses recherches des multinationales Google ou Apple dans cette matière et les aspirations de l’humanité à la transhumance et l’automatisation des tâches, je vais tenter de vous faire découvrir l’univers de l’IA. Pour ce faire, j’ai effectué de nombreuses recherches et beaucoup de synthèse sur internet, un grand nombre de sources existent à des niveaux de granularité scientifique différents. C’est un sujet vaste faisant intervenir beaucoup plus de disciplines que le simple développement informatique. C’est un aspect de l’informatique pouvant mener à de grandes découvertes ou bien à une optimisation de travaux actuellement effectués par l’homme. Je vais donc expliquer le concept d’intelligence, puis celui de l’intelligence artificielle. Apres avoir bien compris ces principes, nous verrons l’historique de l’IA et ses différents courants de pensées, ceci pour prendre conscience de l’ampleur du sujet et de son caractère complexe, pluridisciplinaire et vaste. On développera ces courants de pensées en faisant l’analyse des différents types de développement pouvant être mis en place, les différentes manières d’appréhender cette discipline. Nous aurons alors une grande partie d’explications, de définitions de termes et d’étude de l’art nécessaire à la bonne compréhension des concepts et de leur portée d’application dans notre monde.
  • 7. Mémoire de fin d’études Florian GRENIER Page 6 Nous verrons donc ensuite les domaines d’application et les changements apportés par cette nouvelle discipline dans notre quotidien, l’intelligence artificielle est partout autour de nous et nous ne le soupçonnons pas le plus souvent. A la fin du mémoire, nous verrons comment utiliser cet outil à bon escient et nous ferons la comparaison de performances actuelles et futures de ces intelligences informatiques contrairement à notre intelligence humaine. Mais ceci n’est pas sans risque, nous verrons donc les limites et les craintes qu’engendrent une telle technologie, et on essaiera également de proposer des mesures préventives aux différents risques possibles pour le futur.
  • 8. Mémoire de fin d’études Florian GRENIER Page 7 1) Contexte 1.1) Qu’est-ce que l’intelligence ? Avant toutes choses on peut se demander ce qu’est l’intelligence, comment la formaliser et la caractériser (les différentes zones cognitives dans la Figure 1). Nous allons ici expliquer les différents principes nécessaires à la compréhension de la suite du document. Zones cognitives Le mot « Intelligence » est un dérivé du latin « intelligentĭa » signifiant « faculté de comprendre » et plus précisément la capacité à lier des éléments entre eux. Elle est l’ensemble des capacités mentales nous permettant de comprendre ce qui nous entoure, de découvrir des relations nous permettant d’aboutir à une connaissance conceptuelle et rationnelle celle-ci étant en opposition avec les sensations et émotions. La compréhension est l’aboutissement d’un système de codification diversifié qui, par la maîtrise du langage permet un raisonnement complexe nous permettant d’établir des relations entre éléments. C’est également la définition de notre faculté d’adaptation, nous permettant de gérer de nouvelles situations et notre capacité à traiter les informations pour atteindre un objectif. Afin d’atteindre ces objectifs, l’intelligence fera intervenir plusieurs facultés cognitives que nous allons maintenant détailler pour comprendre par la suite les différentes intelligences artificielles existantes, celles-ci étant basées sur notre connaissance du cerveau humain, et inspirées de ces processus cognitifs.
  • 9. Mémoire de fin d’études Florian GRENIER Page 8 1.2) Les processus cognitifs Cognitivisme Un processus cognitif est « un cheminement par lequel un système traite une information en y répondant par une action ». Ce traitement est le processus par lequel une information est analysée et intégrée dans la base de connaissance du système, ceci dépendant du mode de traitement et du niveau d’élaboration de l’information. D’après les travaux en psychologie génétique de Jean Piaget, durant l’acquisition des connaissances, les processus cognitifs utilisent deux mécanismes élémentaires : l’assimilation et l'accommodation. L’assimilation est le fait d’intégrer une nouvelle situation à une ensemble auxquels une règle existe déjà, ici on ne change pas d’action mais on étend notre champ de connaissances. Pour ce qui est de l'accommodation, on modifie justement une conduite préexistante pour s’adapter à une situation connue mais dont les méthodes habituelles de résolution sont obsolètes et ne suffisent plus, c’est le processus d’adaptation. On peut regrouper les processus cognitifs comme suis : - Perception, Sensation, Attention - Catégorisation, Reconnaissance, Raisonnement et Prise de décision - Représentation, Mémoire et Langage - Oubli, Emotions et Apprentissage - Les phénomènes collectifs et individuels Maintenant que nous avons défini les processus cognitifs, nous allons voir comment notre compréhension de ces mécanisme on put permettre l’émergence d’un tout nouveau domaine de recherche : l’intelligence artificielle.
  • 10. Mémoire de fin d’études Florian GRENIER Page 9 1.3) Qu’est-ce que l’intelligence artificielle ? Symbole de la représentation en informatique du cerveau C’est une discipline scientifique relative aux traitements des connaissances et au raisonnement dans le but de permettre à une machine d'exécuter des fonctions normalement associées à l’intelligence humaine. L’intelligence artificielle tente de reproduire les processus cognitifs humains dans le but de réaliser des actions « intelligentes ». Le scientifique Marvin Lee Minsky, pionnier de la discipline, défini l’intelligence artificielle comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». La plupart des définitions de l’IA sont proches et respectent globalement la définition de Minsky, mais elles peuvent diverger sur les points suivants : - Certaines définitions lient l’IA à un aspect humain de l’intelligence tandis que d’autres la lient à un modèle idéal de l’intelligence : la rationalité. - D’autres définitions s'attardent plus précisément sur la notion d’avoir toutes les apparences de l’intelligence ou alors un fonctionnement interne ressemblant uniquement à celui de l’être humain et sa rationalité. A l’origine, la première personne à parler « d’Intelligence Artificielle » est probablement le scientifique et inventeur Alan Turing dans son article “Computing Machinery and Intelligence” publié en Octobre 1950 dans le magazine Mind. Dans cet article, le mathématicien nous parle pour la première fois du “Test de Turing” dans une tentative de définition d’un standard permettant de qualifier une machine de « machine consciente ».
  • 11. Mémoire de fin d’études Florian GRENIER Page 10 On considère que le domaine de recherche fut alors crée lors d’une conférence au Dartmouth College en 1956 à laquelle assistaient les précurseurs du domaine. L’intelligence artificielle se développa donc grandement aux Etats-Unis : - Université de standford : John McCarthy - MIT : Marvin Minsky - Université Carnegie-Mellon : Allen Newell et Herbert Simon - Université d’Edimbourg : Donald Michie En France, à la même époque, nous avions le polytechnicien Jacques Pitrat, pionnier en intelligence artificielle symbolique. Deux grandes versions de l’intelligence artificielle sont imaginées : l’ia forte et l’ia faible. L’intelligence artificielle forte représenterait une machine capable non seulement de faire preuve d’un comportement intelligent, mais plus précisément d’éprouver des émotions et une réelle conscience de soi. L’intelligence artificielle faible, quant à elle, correspondrait à une approche pragmatique d’ingénieur, on cherche à construire des systèmes de plus en plus autonomes, en simulant de l’intelligence, mais la machine n'exécute qu’une suite d’instructions plus ou moins complexes. En intelligence artificielle, plusieurs courants de développement existent, nous allons maintenant voir ces différentes formes de pensées et leurs caractéristiques.
  • 12. Mémoire de fin d’études Florian GRENIER Page 11 2) Les différents courants d’intelligences artificielles Dans ce chapitre, je vais aborder les différents modèles de pensées liés à l’intelligence artificielle. Je tenterais de vous les expliquer et de vous faire comprendre les différences qu’il existe entre eux. Vous pourrez, par la suite, vous identifier à l’un de ces modèles, et mieux comprendre le cheminement qui a pu mener à de telles découvertes. 2.1) Symbolisme ou Cognitivisme Fonctionnement du cognitivisme Ce modèle d'intelligence artificielle travaille sur des structures de symboles, ceux-ci n’ont pas de signification pour la machine. Le système va reconnaître les formes de ces symboles puis leur signification sera attribuée par l'extérieur. La création de ce courant de développement de l’IA vient d’une simple question que l’on peut se poser : Peut-on réduire les processus cognitifs à la manipulation de symboles fondée sur leurs formes ? Depuis le livre “Mind, brains and science” écrit par J.Searle en 1980, la discussion contemporaine autour du problème d’ancrage des symboles se poursuit périodiquement et fais l’objet de nombreuses recherches. Dans son article, Searle part d’un postulat comme quoi un système incapable de remplir des symboles de sens peut quand même engendrer un comportement apparemment intelligent, de ce fait il expose une faiblesse du test de Turing, celui-ci ne serait pas totalement convainquant car déniant l’affirmation que toute intelligence s’affirme via un système symbolique.
  • 13. Mémoire de fin d’études Florian GRENIER Page 12 Dans son livre La société de l’esprit, Marvin Minsky, s’appuie sur des observations du psychologue Jean Piaget. Il envisage le processus cognitif comme une compétition d’agents fournissant des réponses partielles et dont les avis sont arbitrés par d’autres agents. Pour mieux comprendre, on peut citer les exemples suivants de Piaget : - L’enfant croit d’abord que plus le niveau d’eau est élevé dans un verre, plus il y a d’eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle du diamètre du verre, et arbitre de son mieux entre les deux. Il ne manipule ici que des symboles, il redéfini ses acquis pour s’adapter à la situation. - Il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la réduction de plusieurs objets temporairement représentés à une même boule de pâte l’incite à dégager un concept de conservation de la quantité de matière. Finalement, ces jeux d’enfants aux premiers abords futiles se révèlent essentiels à la formation de l’esprit, permettant de dégager quelques règles pour arbitrer les différents éléments d’appréciation qu’il rencontre, par essais et erreurs. On peut donc résumer le symbolisme à un courant de pensées permettant de recréer des fonctionnements cognitifs par le traitement de symboles et la représentation de ceux-ci. Le traitement symbolique est une approche prometteuse, mais comme tout courant de pensée, il a ses qualités et ses défauts. Nous allons maintenant nous familiariser avec le connexionnisme, qui lui, s’axe sur une réflexion basée sur des connexions, bien plus proche de la biologie que de la psychologie.
  • 14. Mémoire de fin d’études Florian GRENIER Page 13 2.2) Connexionnisme De nouvelles approches intéressantes voient le jour avec l'étude des réseaux distribués, dans lesquels l'imitation du cerveau par l'ordinateur, se retrouve au niveau structurel de base : une multitude d'agents vont permettre de traiter l'information complexe en un temps bref grâce à des techniques d'apprentissage du réseau. Différents types de connexions neuronales artificielles possibles Chaque unité se conduit comme un neurone, transmet le message lorsqu'il est excité et renforce ses connexions à chaque utilisation. Plusieurs variantes vont naître de cette approche connexionniste, qui donneront d'excellents résultats en matière d'apprentissage, de reconnaissance du langage ou d'une image, dans le traitement de problèmes de fond à nature statistique (logique floue), mais également en termes de robustesse structurelle et fonctionnelle. Le principe de base est que les phénomènes mentaux peuvent être représentés par de simples unités interconnectées. La forme des unités et des connexions varient en fonction des modèles, on imaginera que les unités du réseau sont les neurones et les connexions seront les synapses. Pour l’apprentissage du langage, on dira que chaque unité est un mot et chaque connexion est une relation de similarité sémantique ou lexicale. Comme présenté ci-dessus, l'implémentation la plus répandue est celle des réseaux de neurones. Les réseaux neuronaux ayant une approche connexionniste auront deux principales caractéristiques : - Chaque état peut se représenter via un vecteur à x dimensions représentant les valeurs seuils d’activation des unités neuronales.
  • 15. Mémoire de fin d’études Florian GRENIER Page 14 - Le réseau peut apprendre et adapter son appréhension de l'évènement en modifiant à la volée les poids des connexions entre les différents neurones, ce qui aura pour effet de modifier la pertinence de la connexion. C’est ainsi que l’on adaptera notre réseau de neurone pour qu’il approche de plus en plus son comportement objectif. Malgré ces deux points communs, les modèles de réseaux de neurones basés sur le connexionnisme peuvent différés par : - La définition de l’activation d’un neurone : de multitude manières permettent de définir l’activation d’un neurone comme dans une machine de Boltzman, ici l’activation est définie comme la probabilité de déclencher un potentiel d’action. Ce sera une fonction logistique prenant en paramètres la somme des entrées de l'unité courante. L’approche connexionniste peut se représenter comme une boite noire autonome. Mais elle ne prend pas en compte les interactions du système avec son milieu. C’est en ce point que le comportementalisme se distingue des autres mouvements de pensées. 2.3) Comportementalisme Le comportementalisme, aussi appelé béhaviorisme ou behaviorisme, est un approche psychologique consistant à se concentrer sur le comportement observable de l’individu, celui-ci ayant une attitude dictée par l’histoire et les interactions qu’il aura pu avoir avec son milieu. Historiquement, le comportementalisme est née d’une réaction aux approches dites : « mentaliste » qui, voyant dans le mental la cause d’une action, défendaient la méthode d’introspection pour accéder à la compréhension de l’esprit. C’est en 1913 que John Broadus Watson établit les principes de base du béhaviorisme (et en invente accessoirement le nom). La plupart des théories sur l’apprentissage ont trois grandes variables, savoir : - L’environnement qui stimule (que nous noterons S comme “stimuli”). - L’organisme qui est stimulé (que nous noterons I comme “individu"). - La réaction de l’individu aux stimuli (que nous noterons R comme “réaction”).
  • 16. Mémoire de fin d’études Florian GRENIER Page 15 On peut donc écrire le schéma suivant : - S -> I -> R Mais avec l’approche du comportementalisme on va nier la réalité de l’individu et de son fonctionnement interne, en effet, nous allons ici chercher les processus par lesquels l'environnement (S) contrôle le comportement. On considère alors l’individu comme une “boite noire” et on peut reformuler le schéma avec : - S -> R Le problème avec cette représentation est qu’elle n’explique que les apprentissages liés à des stimulations inconditionnelles. On doit alors ajouter deux nouvelles variables : l’environnement et les conséquences sur l’organisme, celles-ci pouvant être positives ou négatives, et modulées par le contexte (noté C). On aura donc : - S -> R -> C Ici on obtient un conditionnement opérant qui, à la différence d’un conditionnement classique, présuppose un être actif dans son environnement. Nous avons vu les trois plus grand courants de pensées autour de l’intelligence artificielle mais ce ne sont pas les seuls, j’ai choisi ceux-là car se sont les plus importants et pertinents. Après avoir introduit le concept d’intelligence puis défini les différents courants de pensées relatifs à l’intelligence artificielle, nous allons maintenant voir les différents types d’intelligence artificielle que nous connaissons aujourd’hui. Nous verrons par la suite leur domaine d’applications. Béhaviorisme
  • 17. Mémoire de fin d’études Florian GRENIER Page 16 3) Les types de développement L’intelligence artificielle étant un domaine extrêmement large. Nous avons de bien nombreuses façons de s’en servir, de la plus simpliste à la plus compliquée, et chacune des méthodes de développement à une fonction spécifique. Nous allons commencer par le développement adapté à l’exécution de taches formelles expertes d’un domaine précis. 3.1) Les systèmes experts Un système expert représente un outil capable de reproduire la réflexion et les mécanismes cognitifs d’une personne experte dans un domaine donné. Il s’agit d’une des voies tentant d’aboutir à une intelligence artificielle forte. Le système expert sera donc un logiciel informatique capable de répondre à des questions données en faisant un raisonnement par déduction à partir de faits et de règles universelles. On pourra l’utiliser dans les outils d’aide à la décision comme le système DENDRAL permettant d’identifier des constituants chimiques. Un système expert se compose principalement de trois parties : - Une base de règles - Une base de faits - Un moteur d’inférence Fonctionnement d’un système expert
  • 18. Mémoire de fin d’études Florian GRENIER Page 17 Le but du moteur d’inférence est de traiter les faits avec la base de règles pour parvenir à la production de nouveaux faits permettant d’arriver à la réponse à la question experte posée. Pour parvenir à une telle déduction, les moteurs d’inférence implémentent des mécanismes de logique formelle basés sur un raisonnement déductif : - Si E1 est vrai (premier évènement) et si on sait que E1 implique E2 (via règle), alors on peut dire que E2 est vrai (nouvel évènement). Il y a deux manières d’appréhender les systèmes experts, via une logique des propositions ne présentant que des évènements vrais ou faux, ou bien via une logique des prédicats facilement manipulables par des algorithmes connus. Afin que le système expert puisse être efficace, il faut mettre en place des règles de cohérence et donc éviter : - Les incompatibilités : si nous avons une règle qui entraine l'évènement C via les évènements A et B, on ne pourra pas avoir d'évènement X avec A et B comme origine en suivant une règle équivalente. En d’autres termes, un couple d'évènements A et B ne pourra toujours donner que C en sortie en appliquant une règle définie. - La redondance : si on applique le même raisonnement déductif à deux évènements, on ne pourra pas avoir le même résultat sauf si l’on modifie les coefficients de certitude de la règle entre les exécutions. - Le bouclage : partant d’un évènement A comme source, on ne doit pas pouvoir revenir à ce même évènement en appliquant les règles du système, il ne faut tout simplement pas créer de boucle infinie de déduction. Pour fonctionner, nous avons vu qu’un système expert nécessite une base de faits et une base de règles face à ces faits, mais on peut se demander comment déterminer et créer cette base de règles et de faits ? Il suffit d’utiliser les connaissances du développeur du système et d’inculquer directement en dur la liste de faits et de règles, mais ce ne sera jamais une base autant exhaustive que l’on pourrait le souhaiter. Il faut arriver à déterminer le comportement d’un expert face à un problème spécifique et sa manière de le résoudre, on recherche ici l'expérience, la connaissance pratique de l’expert, et non la simple théorie que l’on retrouve dans des livres. On pourra alors ajouter un système d’apprentissage automatique à notre système expert pour permettre d'acquérir des connaissances plus pertinentes se rapprochant le plus possible d’un réel expert, on ferra cela par le biais d’algorithmes génétiques.
  • 19. Mémoire de fin d’études Florian GRENIER Page 18 3.2) Algorithmes génétiques C’est une forme d’algorithme dite « évolutionniste » dont le but est de résoudre des problèmes d’optimisation ou de trouver des solutions lorsqu’il n’existe pas de méthode exacte, et tout cela dans un laps de temps raisonnable de façon intelligente. Pour parvenir à ces performances, on utilisera le mécanisme de sélection naturelle et de générations sur des populations d’agents travaillant sur le problème. Pour bien comprendre le fonctionnement de cet algorithme, il faut faire des analogies avec la biologie, nous allons alors définir préalablement trois termes importants pour la bonne compréhension de la suite du document : - Sélection : c’est le fait de déterminer et de ne garder que les individus les plus performants ou laissant présager le plus gros potentiel de hautes performances. Cette sélection se fait donc au moment de la reproduction, les plus adaptés gagnent la course tandis que les autres sont évincés avant la fin, ce qui permet d’améliorer l’adaptation de la lignée. On pourrait presque penser à la sélection naturelle mais il existe une petite différence, ici le critère de sélection est déterminé par l’homme un peu comme avec les agriculteurs et leurs légumes, on parlera alors de sélection artificielle. - Enjambement : au niveau biologique, c’est l’instant ou deux chromosomes se combinent pour donner de nouveaux chromosomes lors de la reproduction. Le mélange peut se faire suivant un ou plusieurs points de croisement. La plupart du temps en algorithmie génétique, nous n’aurons qu’un seule point de croisement déterminé par la technique de recombinaison et le problème à résoudre. - Mutations : c’est le fait qu’un gène aléatoire peut être a tout moment substitué à un autre. On définira un pourcentage d’apparition très faible (0.001 < Taux < 0.1) pour garder les principes de sélection et d’évolution. Il reste néanmoins nécessaire de garder ces mutations afin d’éviter une convergence finie des générations et de permettre d’introduire un facteur aléatoire pouvant mener à la sérendipité. Maintenant que ces principes sont plus clairs, on peut expliquer le fonctionnement de ces algorithmes et pourquoi ils sont aussi puissants. C’est ces algorithmes qui arrivent à battre des joueurs professionnels d’échec ou de go !
  • 20. Mémoire de fin d’études Florian GRENIER Page 19 Nous commençons alors avec une population d’individus de base se composant chacun de chaines de caractères, ceci représentant les chromosomes (d’autres techniques de représentation des données existent, mais nous choisirons celle-là pour expliquer ici). La liste des agents initiaux est générée aléatoirement pour avoir une diversité significative et des points de recherches radicalement différents, permettant d’aboutir à une plus grande diversité de réponses possibles au problème donné. Ensuite on analyse et on pondère chaque individu en fonction de sa capacité à résoudre le problème, puis on effectue la sélection sur le groupe. Etant donnée la grande diversité des techniques de sélections possibles, je vais ici vous expliquer les principales : - La sélection par rang : ici, la sélection consiste à ne garder que les individus ayant le meilleur score d’adaptation, l’aléatoire n’entre donc pas en jeu dans la fonction de sélection mais est effectif au niveau des mutations et des rangs d’adaptation. - Probabilité de sélection proportionnelle à l’adaptation : contrairement à la sélection par rang, ici nous allons faire intervenir un paramètre aléatoire dans la sélection. Chaque élément aura une chance d’être tiré au sort proportionnel à son degré d’adaptation mais cela reste du tirage au sort. Une fois les membres sélectionnés, nous allons effectuer les opérations d’enjambement et de mutations sur une faible quantité d’individus choisis aléatoirement. Puis on relance le procédé de sélection etc… Ces actions seront effectués un grand nombre de fois pour simuler l’évolution qui n’es significative que sur un très grand nombre de générations. Au bout d’un nombre défini de générations, le procédé sera stoppé, ou bien lorsque les performances d’un individu auront dépassé un ratio recherché. Beaucoup d’autres principes d’optimisation peuvent être introduits tels que l’inclusion d’individus n’étant pas de la même descendance (générés aléatoirement) offrant ainsi une probabilité d’éviter la convergence locale des résultats accrue.
  • 21. Mémoire de fin d’études Florian GRENIER Page 20 Fonctionnement récursif de l’algorithme Avec ce type d’algorithmes, nous pouvons « apprendre » à un programme à résoudre un problème complexe (tels que les échecs) n’ayant pas de solution absolue (ou celle-ci étant trop longue à trouver, comme dans le jeu de go). Il existe de nombreuses méthodes pour « faire apprendre » à un programme, je vais maintenant vous les énumérer et vous les expliquer. 3.3) Acquisition de connaissances, apprentissage automatique Avant tout, il est important de donner une définition de la connaissance. C’est une notion complexe et n’ayant pas de définition avérée. Il a été défini par Christian Godin que la connaissance est la « faculté mentale produisant une assimilation par l'esprit d'un contenu objectif préalablement traduit en signes et en idées », il ajoute « Résultat de cette opération, la connaissance est une possession symbolique des choses. Nous allons maintenant voir par quel procédés nous arrivons aujourd’hui à faire apprendre aux programmes, leur inculquer des connaissances leurs permettant de se perfectionner. Cette discipline de l’intelligence artificielle se nomme l’apprentissage automatique (ou apprentissage statistique) : « machine learning » en Anglais. Elle permet l’analyse, la conception, le développement et l'implémentation de méthodes permettant à une machine de se modifier, d’évoluer par des processus systématiques leurs permettant alors de remplir des tâches impossibles à effectuer avec des algorithmes classiques.
  • 22. Mémoire de fin d’études Florian GRENIER Page 21 Avec l’apprentissage automatique, on peut travailler sur des courbes ou des graphes mais aussi sur de la classification, c’est un modèle permettant potentiellement d’apprendre tout ce que l’on souhaite, l’imagination est la seule limite de l’apprentissage automatique (avec peut-être le hardware, mais on reviendra sur les limites de l’ia plus tard). En principe, les algorithmes utilisés permettent à un système d’adapter ses analyses, de modifier son comportement en fonction de l’analyse de données provenant de Bases de Données ou de capteurs (pour les robots). La plus grande difficulté réside dans le fait que la grande masse de couple action/réaction ou paramètre/comportement devient très rapidement énorme et impossible à décrire (c’est « l’explosion combinatoire »). Il faut alors doter le programme d’une fonction d’ajustement lui permettant de simplifier son processus d’apprentissage, et accessoirement lui permettant d’évoluer, de modifier son fonctionnement en fonction de la modification des données dans la base, le programme remettra en question ses acquis et modifiera son comportement si celui-ci n’est plus adapté. Les différents types d’apprentissages sont : - L’apprentissage supervisé : nous avons deux phases, la phase d’apprentissage et la phase de tests. On donne un environnement avec des classes prédéterminées et des exemples connus, un expert aura étiqueté les bonnes classes sur les exemples puis le système va alors tenter de déterminer le modèle de données via une analyse des exemples. Par la suite, le système tentera de prédire la classe d’un élément non étiqueté, il est important de noter que les meilleurs performances ne se retrouvent pas sur les modèles binaires (en disant que tel élément appartient à telle classe), mais sur des modèles probabiliste retournant un pourcentage de chances d’appartenir à telle ou telle classe, on pourra à ce moment inclure un seuil de déclenchement disant que si cette probabilité dépasse X%, alors on considère que l’on est à 100% sur de l’appartenance de l’objet à la classe. - L’apprentissage non-supervisé : ici nous avons des exemples sans classe ni étiquette préalable, nous n’avons donc plus besoin d’expert pour ce type d’apprentissage. Le programme va devoir calculer la similarité des exemples via une fonction de distance entre paires d’exemples. Le système va alors classer par similarité les exemples dans des groupes et des groupes de groupes et ce sera a l’opérateur de déterminer le sens de ces groupes. Ce type de classement étant hautement probabiliste, de nombreux outils mathématiques existent déjà. A savoir que ce mode d’apprentissage peut être une grande source de sérendipité (le fait de faire une découverte de manière inattendue).
  • 23. Mémoire de fin d’études Florian GRENIER Page 22 Fonctionnement simplifié de l’apprentissage Les modèles suivants ne sont que des dérivations des deux grands modèles précédents. - L’apprentissage semi-supervisé : on utilise ce modèle lorsqu’il nous manque des étiquettes ou classes, on utilisera des exemples non classés et on essaiera de voir par rapport aux exemples classés les similarités ou alors on créera de nouveaux groupes sous-jacents aux existants. - L’apprentissage partiellement supervisé : il ressemble à l’apprentissage semi- supervisé, il est utilisé lorsqu’un exemple n’appartient ni à A ni à B, on cherchera alors son étiquette. - L’apprentissage par renforcement : le programme apprendra ici un nouveau comportement en fonction d’observations, c’est à dire que l’action qu’aura l'algorithme sur l’environnement retournera une valeur qui guidera le modèle d’apprentissage. - L’apprentissage par transfert : c’est la capacité d’un programme à reconnaître des connaissances apprises à partir d’anciennes tâches et les appliquer sur de nouvelles tâches ou domaines ayant des similitudes.
  • 24. Mémoire de fin d’études Florian GRENIER Page 23 Pour effectuer un apprentissage de qualité, plusieurs facteurs entrent en compte : - Le nombre d’exemples : plus il y a d’exemples, plus l’apprentissage sera long mais plus il sera de qualité, au contraire, moins il n’y en a, moins ce sera long mais l’apprentissage ne sera pas qualitatif. - Le nombre et la granularité des étiquettes/attributs : plus nous aurons d’attributs, plus la fonction de distance entre les paires d’exemples sera efficace. - Le pourcentage de données manquantes et renseignées. - Le « Bruit » : c’est le nombre de valeurs non conformes ou altérées pouvant mener à confusion, ce sont ces valeurs pouvant amener à de grands faux-positifs et même une erreur totale de classement de la part de l’algorithme. A savoir que les modèles d’apprentissage automatiques sont tous plus ou moins inspirés des êtres vivants, l’apprentissage automatique est peut être un sous-domaine de l’informatique mais fait intervenir les sciences cognitives, les neurosciences, la biologie ainsi que la psychologie. Lorsque l’on développe une IA, il peut être intéressant de dialoguer avec, le chapitre suivant expliquera le fonctionnement des méthodes de Traitement Automatique du Langage Naturel (TAL ou TALN) 3.4) Traitement automatique du langage naturel Ce type de développement est l’application de programmes et de techniques informatiques au langage humain, aussi appelée ingénierie linguistique. C’est avec le test de Turing et les machines tentant de le relever, que les premiers essais de TAL furent tentés. Le test de Turing (Allan Turring dans « Computing machinery and intelligence ») est un test ayant pour ambition de révéler si une machine est « intelligente » ou non. On va faire discuter, via une conversation en temps réel, une machine et un humain. Le test se révèle positif si l’humain est incapable d’affirmer à 100% s’il a une machine ou un humain en face de lui. En 1954, l'expérience de traduction russe/anglais de Georgetown fait également intervenir du TALN et est le prémice de la traduction automatique. Vers 1965, Joseph Weizenbaum développe le programme ELIZA ; étant une simulation de la psychothérapie rogérienne consistant à mettre l’accent sur l’empathie, l’authenticité et le non-jugement.
  • 25. Mémoire de fin d’études Florian GRENIER Page 24 Cette approche à l'avantage de ne pas prendre en compte la pensée ou les émotions humaines, ce qui rend le programme plus facilement crédible. Par la suite ce sont de nombreux chatterbot (robots de discussion) et de nombreuses recherches sur la traduction automatique qui monopolisèrent les chercheurs, au fur et à mesure de l’évolution des puissances de calcul, les programmes devinrent de plus en plus performants. Schéma du TALN On peut faire des analyses statistiques dans le TAL permettant de désambiguïser des phrases très longues pouvant mener à des milliers voir millions d’analyses possibles. On utilisera ici de l’apprentissage automatique sur le système pour qu’il fasse de moins en moins de confusions de sens. Le TAL à de nombreuses applications telles que la production ou la modification de texte (correction orthographique, traduction automatique ou encore résumé automatique de texte etc…), le traitement du signal comme la reconnaissance de la parole ou bien l’extraction d’information avec l’annotation sémantique ou la classification de documents. Comme j’ai pu le dire au début du document, l’intelligence artificielle ne sert pas seulement à optimiser des processus mais elle permet également de formaliser des actions afin de les exécuter le plus rapidement possible. Le calcul formel fait partie de cette catégorie. 3.5) Calcul formel Si on adapte la technique de traitement du langage aux mathématiques on obtient le traitement informatique du langage mathématique. Le calcul formel, au contraire du calcul numérique, traite des expressions symboliques.
  • 26. Mémoire de fin d’études Florian GRENIER Page 25 C’est par un procédé de transformation des expressions mathématiques (traduction) que les algorithmes tenteront de résoudre les différentes équations qui lui sont données. Par exemple, calculer la valeur d'une fonction réelle en un point est du calcul numérique alors que calculer la dérivée d'une fonction numérique, déterminer sa primitive, simplifier son expression est du calcul formel. De nombreux logiciels très puissants sont commercialisés pour exécuter tous les calculs formels et bien d‘autres nécessaires aux activités scientifiques et techniques tels que MAPLE ou MATHEMATICA. Ces outils serviront principalement d’assistants de preuve, apportant une aide aux mathématiciens, ce qui peut également découler sur des outils de raisonnement logique au sens plus large du terme pour la vérification des programmes par exemple. Capture d’écran du logiciel MATHEMATICA A la frontière entre les systèmes experts et les réseaux de neurones, nous avons la résolution générale de problèmes. C’est un aspect pouvant regrouper plusieurs types de développement.
  • 27. Mémoire de fin d’études Florian GRENIER Page 26 3.6) Résolution de problèmes Cette approche consiste à analyser, formaliser et résoudre des problèmes concrets. La résolution de problème est très vaste, se déplacer d’un endroit à un autre est une résolution de problèmes et uniformiser la physique quantique et la relativité générale en est un autre. Un problème est donc une tâche qu’il faut analyser, puis il faut dégrossir les réponses possibles afin de parvenir à une conclusion satisfaisante. A savoir que la résolution de problèmes est une des champs de recherche de l’intelligence artificielle le plus fondamental, les premiers chercheurs tentèrent de créer des algorithmes permettant de résoudre n’importe quel problème. C’était le but du “General Problem Solving” mais les chercheurs se sont rendus compte de leurs actuelles incapacités à faire cela et ont donc été obligé de segmenter les axes de recherche. Fonctionnement grossier de la résolution de problèmes La plus grande difficulté dans la résolution de problèmes est “l’espace de recherche de solutions”, il est souvent immensément vaste et il faut alors implémenter des méthodes permettant de le réduire en ne cherchant pas dans les directions inutiles. Il est également intéressant de faire des rapprochements avec des problèmes similaires pour ne pas reproduire les mêmes erreurs et afin de mieux modéliser la représentation du problème dans le système. En dehors de l’industrie, la résolution de problème est très populaire pour les jeux (jeu de go, échecs etc…). Il est important de noter qu’il faut différencier les algorithmes euristiques de ceux faisant simplement intervenir la force informatique brute.
  • 28. Mémoire de fin d’études Florian GRENIER Page 27 Lorsque l’on cherche à battre le champion du monde d'échec avec un programme, il y a peu d'intérêt à lui mettre le plus puissant des ordinateurs en face de lui qui testera toutes les possibilités de coups (force informatique brut, long et non optimisé). Mais il est bien plus intéressant d’essayer de concevoir une IA plus “intelligente” étant plus rapide et plus performante pour des coûts réduits en énergie. Le mode de fonctionnement de l’esprit humain utilise bien d’autres méthodes que les méthodes logico-mathématiques auxquelles on pourrait penser. Il faut prendre en compte l’imagerie sensorielle, et les analogies, on réagit et on se guide souvent par des émotions ou par rapport à des analogies avec des situations connexes dans le passé. L‘informaticien Douglas Hoftstadter à développer de nombreux programmes basés sur une approche d’analogies comme le programme CopyCat qui a la capacité de se modifier lui-même au fur et à mesure des questions qui lui sont posés, certains pensent même que ce programme pourrait être un précurseur de l’IA forte ! Hoftstadter a également crée un autre programme avec Harry Fondalis qui se nomme Phaeaco. Ce logiciel est capable de résoudre des problèmes de Bongard : ce sont des problèmes présentés en deux pages, sur la page de gauche, six images ayant toutes un point commun différent de celui des six images de droite. Pour trouver les caractéristiques communes, le logiciel va être guidé par « idées » qu’il peut avoir à un certain moment sur les différents concepts possibles. Pour passer à l’étape suivante de l’intelligence en informatique, les chercheurs pensent qu’il faudrait trouver un moyen de leur apprendre l’introspection, afin qu’ils comprennent les raisons de leurs choix pour pondérer correctement les actions qu’ils entreprennent. Ils leur manqueront aussi la notion de « but » pour arriver à travailler sur une intelligence artificielle forte. Un dernier programme intéressant à citer et utilisant une approche heuristique est Eurisko. Ce programme est encore considéré comme l’un des plus intelligent jamais conçu, il était capable de démontrer des théorèmes en explicitant ses modes de raisonnement, il était même capable de proposer des suggestions. Eurisko a été banni d’un jeu (le « The Traveller Trillion Credit Squadron ») qu’il gagnait tout le temps à cause de ses performances beaucoup trop élevées par rapport au niveau des autres concurrents. Pour s’approcher au plus du fonctionnement d’un homme, les chercheurs en IA ont du se pencher sur l’analyser des flux visuels et sur la reconnaissance des formes. Le chapitre suivant traitera du fonctionnement de cette discipline.
  • 29. Mémoire de fin d’études Florian GRENIER Page 28 3.7) Reconnaissances de formes ou vision artificielle Les disciplines relatives à la vision artificielle L’être humain arrive à reconnaître des formes et comprendre son environnement sans en avoir la moindre conscience, c'est un mécanisme automatique qui s’effectue sans besoin de conscience mais qui sollicite une très grande partie du cerveau. Ce qui prouve que ce mécanisme a beau être devenu automatique, il n’en reste pas moins compliqué. Le processus de construction de la perception depuis les informations renvoyés par nos sens fait intervenir la quasi-totalité de notre cerveau. Dès la création de l’IA, la volonté des chercheurs était d’équiper les machines de dispositifs d’émission et de réception de signaux divers, de se rapprocher le plus possible des performances humaines. Mais beaucoup de difficultés ont été rencontrées comme la diversité des méthodes de traitement du signal ou alors de nombreux problèmes analogiques ou logique. Si on regarde la reconnaissance de la parole, l’idéale pensée était de pouvoir reconnaître les paroles d’un locuteur quelconque, mais le processus est hautement compliqué rien que par le fait que la compréhension d’un mot ne relève pas uniquement de connaissances langagières mais aussi du contexte, du but ou du monde dans lequel vit le sujet.
  • 30. Mémoire de fin d’études Florian GRENIER Page 29 La reconnaissance de l’écriture fut plus simple sauf pour les écritures manuscrites ou l’on aura une grande part d'ambiguïté due au côté unique de l’écriture de chaque personne. La reconnaissance des visages à partir de photo ou de modèle vivant est importante pour les systèmes sécuritaires ou pour que les robots reconnaissent les visages. Pendant longtemps, cette approche fut considérée comme impossible, mais les chercheurs se sont rendu compte qu’un cerveau de nourrisson le faisait très simplement. Aujourd’hui le modèle fonctionne parfaitement et peut aussi donner des résultats supérieurs à ceux d’un être humain. On ne va pas seulement essayer de reconnaître des formes mais on peut également rechercher des modèles, des motifs ou des groupes. On peut donc tenter de détecter des objets d’une certaine catégorie dans une image ou une vidéo. Pour ce faire, il faudra passer par certaines étapes cycliques/récursives. On commencera par déterminer quelles données devraient permettre de séparer ce que l’on recherche du reste qui ne nous intéresse pas. Par la suite on récolte, on nettoie et on analyse les données afin de pouvoir en modéliser une frontière discriminante pour notre objet cible par rapport au reste. Puis on terminera par essayer de déterminer la région de l’image correspondant à ce que l’on recherche ou alors au moins dire si notre objet est contenu ou non dans l’image. Une fois que nous savons reconnaitre des images, que nous avons appris à décoder des sons, il nous faut un système de classification. Il faudra ordonner, prioriser, pondérer et classer les résultats de nos analyses. Il existe un domaine entier consacré à ce travail et c’est le domaine de la sémantique et de l’indexation que je vais vous expliquer dans le chapitre suivant. 3.7) Sémantique et indexation Problème : Ce domaine vient d’une constatation simple : - Aujourd'hui les ressources multimédia disponibles sur un ordinateur sont nombreuses et volumineuses. - Elles sont difficilement accessibles car manque d’indexation et de classement. Il reste facile mais long à un humain pour indexer manuellement une masse de ressources multimédia c’est pour cela que l’indexation automatique à vue le jour.
  • 31. Mémoire de fin d’études Florian GRENIER Page 30 Solution : On commence alors par extraire les données descriptives (métadonnées) du document. Ces métadonnées peuvent être un grand nombre de choses tel que des segments temporels ou des régions toutes descriptives et structurant du document. Pour ce faire on utilisera un modèle de reconnaissance de formes ou alors un modèle basé sur l’apprentissage des patterns à reconnaître dans le document en question. On pourra utiliser des modèles “stochastiques”, permettant de caractériser l’évolution dans le temps ou l’espace du contenu. Ceci permettant à la machine de « localiser » tel ou tel évènement. On pourra également utiliser un système expert qui transcrit ce que l’on cherche en base d’heuristiques, permettant de spécifier l’analyse du document sur un objet précis mais il reste certains objets impossibles à déterminer ainsi. Si on essaie de classifier les publicités des autres programmes diffusés sur une chaîne de télévision, on le fera via apprentissage dirigé pour que le programme en ressorte les caractéristiques spécifiquement discriminantes aux autres programmes. On pourra également se retrouver face au problème de la représentation et structuration des métadonnées dans un même système, ou entre système différents. Il faudra utiliser des outils technologiques spécifiques permettant de construire des index et de définir des distances pour optimiser le temps et la qualité de la recherche. Certaines recherches vont même jusqu'à modéliser les intérêts des utilisateurs et un tel système couplé avec un mode de représentation symbolique pourra permettre de définir dynamiquement les chemins optimaux vers les données potentiellement recherchées. Ce domaine est extrêmement vaste et fait intervenir de nombreux aspects de l’intelligence artificielle, on peut presque l’adapter à tout problème. C’est une des pratique la plus à la convergence des technologies parmi lesquelles l’intelligence artificielle à un rôle à jouer.
  • 32. Mémoire de fin d’études Florian GRENIER Page 31 3.8) Intelligence artificielle collective et systèmes multi-agents Concept : En intelligence artificielle, un système multi-agent est un groupe d’unités travaillant en collaboration, avec des interactions définies, dans un environnement donné. On essaie ici de représenter l’ « Intelligence Collective » que l’on peut retrouver chez les hommes. C’est l’ensemble des capacités cognitives d’un groupe d’individu issues des interactions entre ses membres. Sachant que les individus n’ont pas conscience de la totalité des évènements influençant le groupe, la connaissance de chaque membre est donc limitée à sa propre perception de l’environnement, mais le groupe pourra quand même accomplir des tâches complexes via un mécanisme appelé synergie (ou stigmergie). Il existe un très grand nombre de formes d’intelligences collectives divergeant selon la communauté et ses membres, ces systèmes seront tous plus ou moins complexes ou sophistiqués. Contrairement aux colonies d’insectes, les humains créent des intelligentes collectives très hétérogènes pour les raisons mentionnées ci-dessus alors que chez les fourmis par exemple on retrouvera toujours globalement le même schéma « mécanique » d’organisation. Pour caractériser une intelligence collective simplement on identifiera : - La portée de l’information : il faut que chaque membre du groupe ait une connaissance partielle de l’information, il ne faut pas d’omniscience. - Les règles de comportement : chaque individu doit se comporter selon des règles de groupe simple et homogènes par rapport au système global. - Les interactions : chaque membre du groupe doit être en relation avec un ou plusieurs autres pour permettre un échange d’informations. - L’intérêt de la collectivité : dans un système d’intelligence collective, chaque individu doit trouver un sens à sa collaboration dans le système pour permettre l’émergence d’une structure utile à la collectivité, le membre isolé trouvant son intérêt à la collaboration et faisant preuve de performances supérieures à celles que l’on pourrait observer dans un même environnement en solitaire. Nous avons bien défini le concept d’intelligence collective, maintenant nous allons voir comment les systèmes multi-agent s’organisent autour de cette discipline. Comme précisé précédemment, le système multi-agent mettra en œuvre plusieurs « Agents » (entité partiellement autonome) dans un environnement interagissant les uns avec les autres selon des règles strictes.
  • 33. Mémoire de fin d’études Florian GRENIER Page 32 Mise en œuvre : C’est un sujet traité depuis des années en Intelligence Artificielle Distribuée, il permet la modélisation de sociétés et donc offre un champ d’application immense pouvant même aller jusqu’aux sciences humaines. Pour se représenter simplement un système multi-agent, imaginez un jeu vidéo de simulation de vie de famille, on aura : - Un environnement : la maison disposant d’une métrique - Des objets passifs : ce sont les objets sur lesquels peuvent intervenir les agents (Nourriture, vase, voiture, four …). - Les agents : notre famille d’humains simulés (Mathilde, Linda, Alex …). - Des relations entre les objets et nos agents (Mathilde peut manger du pain alors que Linda non car elle est intolérante au gluten). - Des relations entre agents : liens de famille, notion de propriété … - Un ensemble d’opérateurs : ce sont les outils avec lesquels nos agents vont interagir sur les objets ou sur les autres agents (Alex sait faire du vélo). - Un ensemble de capteur : permettant aux agents de se tenir informés de l’évolution de l’environnement (il n’y a plus de pain sans gluten, le vélo est cassé …). Pour concevoir un système multi agent, il y a quatre grandes questions à se poser : - Comment les agents doivent-ils interagir ensemble dans le milieu et comment le milieu réagira-t-il en retour ? On doit alors les munir d’un système de décision leur permettant de planifier des actions à plusieurs. - Quel sera le model cognitif de l’agent, comment l’individu appréhendera sa relation au monde ? Pour cela, nous devons leur donner un modèle cognitif de référence, de nombreux existent, mais on peut citer le plus connu d’entre eux : le BDI (Beliefs-Desires-Intentions). - Comment les agents doivent interagir ensemble ? quel support et quel langage ? On leur donnera un système de communication, des langages tels que le KQLM ou FIPA-ACL remplissent parfaitement cette fonction. - Les agents vont-ils évoluer, apprendre ou s’adapter à la collectivité ? C’est un sujet assez compliqué, on sait que certains virus peuvent s’adapter à leur environnement par le biais de mutation mais aucune réelle bonne pratique n’est en place actuellement. Malheureusement, le fonctionnement éprouvé des systèmes multi-agents ne permet pas de résoudre toutes les problématiques, d’où la création de réseaux de neurones artificiels.
  • 34. Mémoire de fin d’études Florian GRENIER Page 33 3.9) Réseaux de neurones artificiels Un réseau neuronal artificiel est un groupe d’algorithmes et de méthodes mises en places pour tenter d’approcher le fonctionnement du cerveau humain par le biais d’unités de calculs (neurone) tentant de s’approcher le plus possible des neurones biologiques. Fonctionnement d’un neurone biologique La plupart du temps, ces réseaux de neurones sont optimisés par des méthodes d’apprentissages tels que les algorithmes génétiques. Ils seront utilisés ensuite pour effectuer une simulation de réactions cognitives indépendantes des idées propres au développeur, ceci pouvant enchainer sur du raisonnement logique formel (ou « Deep Learning »). Représentation classique d’un réseau neuronal Le développement des réseaux de neurones et les avancées dans ce secteur sont fortement liés à nos connaissances actuelles en neurosciences, en biologie et en cybernétique.
  • 35. Mémoire de fin d’études Florian GRENIER Page 34 Nous avons donc eu une forte évolution de la représentation des neurones dans les réseaux neuronaux au fil du temps : Le neurone formel : C’est en 1950, après la publication de l’article « What the frog’s eye tells the frog’s brain », que les neurologues Warren McCulloch et Walter Pitts constituèrent un modèle simple de neurone biologique appelé neurone formel. La plupart du temps, un neurone formel est constitué d’entrées et d’une sortie correspondant aux dendrites et à l’axone du véritable neurone biologique. Dans un neurone, nous avons également des synapses provoquant une action sois excitatrice sois inhibitrice au niveau des signaux reçus. Ces actions sont souvent représentées par des coefficients numériques (poids synaptiques) associés aux différentes entrées. Durant la phase d’apprentissage, on va alors modifier ces poids synaptiques pour donner la pertinence nécessaires aux informations importantes. Lorsqu’une information arrive en entrée du neurone, on va alors exécuter la fonction de transfert du neurone comprenant comme variable le poids associé à l’entrée de l’information. Cette fonction de transfert nous renverra une valeur qui sera alors comparée à une valeur seuil d’activation, si la valeur calculée est supérieur à la valeur seuil, alors le neurone s’excite sinon son axone s’inhibe. En connectant plusieurs de ces neurones on obtient le réseau de neurones formels. Il permettra, après une période d’apprentissage, d’effectuer une opération de classification donnée rapidement et en s’améliorant. Pour apprendre au réseau, on va ajuster les poids synaptiques et les valeurs de seuil de chaque neurone du réseau pour obtenir un comportement optimal. Le perceptron : Le neurone formel remplis effectivement sa tâche mais ne fournit pas de méthode d’adaptation des coefficients synaptiques et c’est ici que le perceptron intervient. C’est le physiologiste Donald Hebb qui, en 1949, résout ce problème par la « règle de hebb » qui permet d’ajuster les valeurs des coefficients synaptiques en fonction de leur activité. C’est-à- dire que plus une synapse sera souvent excitée, plus son coefficient aura un gros impact sur la fonction de transfert. Cette modification d’apparence légère permet au système d’apprendre par expérience mais cela même si l’instructeur commet des erreurs ce qui est une révolution dans le domaine. Le perceptron est aujourd’hui encore le modèle de neurone artificiel le plus largement utilisé.
  • 36. Mémoire de fin d’études Florian GRENIER Page 35 Le perceptron multicouche : Une fois le perceptron inventé et implémenté, l’intelligence artificielle fut une grande désillusion car elle ne réussissait pas à répondre aux énormes attentes qu’elle suscitait. C’est en 1986 que David Rumelhart introduit le perceptron multicouche. Il est la résultante du couplage du perceptron standard et de la théorie de la « régularisation statistique » de Vladimir Vapnik. Cette théorie permet d’anticiper et de réguler les phénomènes de surapprentissage. Ceci se traduit par un arbitrage équivalent entre une modélisation trop pauvre manquant de détails pour être réellement efficace, et une modélisation trop riche faisant une généralité de cas pas forcément pertinent se retrouvant souvent dans un nombre d’exemples trop petit. 3.10) Réalité virtuelle La réalité virtuelle (VR), aussi appelée multimédia immersif ou encore réalité simulée par ordinateur, est une technologie informatique reproduisant un environnement réel connu ou imaginaire. Le but de cette manipulation est d’offrir à l’utilisateur une expérience la plus immersive possible pouvant aller jusqu’à utiliser tous nos sens, elle permet également l’interaction de l’utilisateur en son sein. Aujourd’hui, la VR est en plein essor avec la sortie de l’Occulus Rift et l’HTC Vive. L’amélioration des nouvelles technologies de VR sont dues aux chercheurs américains qui ont permis le développement de cette technologie autant pour le grand public que pour l’industrie. Certaines applications de VR tels que des jeux ou des applications ludiques mettent en place de petites intelligences artificielles faibles comme des personnages non-joueurs, mais il n’est pas impossible de projeter que dans le futur, les IA évolués des jeux vidéo seront implémentés dans les applications de réalité virtuelle pour permettre une meilleure immersion et une plus grande qualité d’expérience. Les différents types de développement expliqués, je vais maintenant faire les corrélations entre ceux-ci et les différents domaines d’applications possibles.
  • 37. Mémoire de fin d’études Florian GRENIER Page 36 4) Les domaines d’applications Maintenant que les concepts sont posés, nous allons pouvoir analyser la présence et l’impact de l’intelligence artificielle dans notre quotidien. Nous allons essayer d’exposer ici les plus grandes utilisations de l’IA dans des domaines radicalement différents. On appuiera ainsi le fait qu’elle est déjà omniprésente dans notre quotidien et qu’elle a déjà dépassé les performances humaines dans des secteurs bien précis. On verra également des applications moins axés sur la performance mais plus sur le côté pratique et le gain de temps. Cette partie tentera de susciter votre curiosité pour vous donner envie de vous renseigner sur les applications de l’intelligence artificielle car évidemment, la liste suivante restera non- exhaustive et ne parlera que des plus gros sujets actuels. 4.1) Accessibilité et ergonomie L’accessibilité est le fait qu’une application puisse être utilisée par le plus grand nombre de personnes quel que soit le handicap. J’ai ajouté « ergonomie » ici car les deux principes se retrouvent sur le fait qu’ils essaient tous deux de rendre l’utilisation d’un outil le plus agréable et simple possible. Nous allons donc commencer par parler des assistants personnels virtuels, ces applications « futuristes » vous permettant de dialoguer et de poser des questions à une machine et d’avoir une réponse en retour. Les plus connus sont Siri (Apple), Cortana (Microsoft), SVoice (Samsung) et Google Now (Google). En se basant sur d’énormes bases de données et des algorithmes de deep learning, les Assistants Personnels Virtuels offrent une capacité de raisonnement ultra rapide. Son rôle sera de répondre pertinemment à des requêtes potentiellement de tout ordre (écriture d’un sms, traduction de texte ou encore réservation de billet). Pour effectuer cela l’assistant virtuel devra recevoir ses informations via des données brutes (textes, images ou son) qu’il analysera ensuite avec le serveur car ces applications sons toutes dépendantes d’un serveur à distance à qui poser les questions, car évidemment, un tel système ne serait pas supporté par les téléphones actuels. Mais les assistants virtuels ne sont pas les seules applications de l’ia en accessibilité. Google a créé en 2014, l’outil Inbox Gmail. C’est un outil destiné aux personnes n’ayant que peu de temps pour s’occuper de l’administratif.
  • 38. Mémoire de fin d’études Florian GRENIER Page 37 Cet outil arrive à trier et classer les mails similaires, mettre en avant ceux qui sont important et au contraire avoir tendance à masquer les inutiles. Bien évidemment que de l’intelligence artificielle se cache derrière tout ça ! Mais le plus beau reste que fin 2015, la multinationale annonçait la sortie de Smart Reply. Cette nouvelle fonctionnalité offre la possibilité à l’application de répondre automatiquement (mais non sans votre accord) à vos e-mail. Le réseau de neurones de Google va analyser votre syntaxe d’écriture et ordonner les idées en champs lexicaux pour améliorer son fonctionnement. Ensuite quand vous recevrez un e-mail, Smart Reply vous proposera trois réponses, si l’une d’entre elles vous convient, vous n’avez qu’à cliquer dessus. C’est un énorme gain de temps pour les personnes recevant de nombreux e-mails chaque jour. En dehors de l’application web, nous retrouvons également l’Intelligence Artificielle dans la domotique. Les produits Amazon Echo ou Google Home sont vos majordomes virtuels. Ces applications résultent d’années d’apprentissage automatique, de perfectionnement en reconnaissance vocale et en systèmes experts. Le système vocal repose sur un algorithme de traitement du langage naturel sophistiqué et spécialement créé pour l’occasion. Le Google home se présentera ainsi : Il permet de reconnaitre une demande et d’y répondre si possible. Il permet de vous donner la météo, mettre la radio, écouter de la musique via vos comptes Spotify, Amazon ou Apple music. Il peut vous mettre en place des alarmes, des rendez-vous sur votre Google calendar, effectuer des commandes sur internet, il a également accès à Wikipedia ce qui lui permet de répondre à un grand nombre de questions de culture. L’intelligence artificielle du Google Home est appelée Alexa, vous pouvez lui ajouter des fonctionnalités en fonction de vos besoins et les plus téméraires peuvent également développer des modules pour l’outil : lui apprendre à contrôler des éclairages sans fils ou encore des thermostats pour que votre maison soit la plus adaptée à vos attentes.
  • 39. Mémoire de fin d’études Florian GRENIER Page 38 Malheureusement ces produits ne sont pas encore disponibles en dehors des Etats- Unis, le Google home ne peut pas vous localiser hors du pays ce qui peut apporter des problèmes lors de questions impliquant le fuseau horaire ou la localité. Les applications d’intelligence artificielles se retrouvent également dans le domaine bancaire. 4.2) Banque Dans les banques, les systèmes experts commencent à faire leurs places entre les différentes applications de gestion de fonds et d’assistance. Il existe des systèmes experts d’évaluation des risques liés à l’octroi d’un crédit qui vont analyser les données d’un client pour définir quels sont les risques et les probabilités de rentabilité d’un crédit quel qu’il soit. Comme précisé dans le paragraphe sur les systèmes experts, le logiciel aura besoin d’un expert humain qui va lui « expliquer » comment réagir à telle ou telle situation, le système va apprendre de cet expert pour être par la suite plus rapide et efficace que celui-ci. En effet, une banque dispose d’un grand nombre d’offres, un agent humain ne pourra jamais proposer la totalité des offres et travaillera la plupart du temps avec les 10 ou 15 offres qu’il maitrise le plus. Le problème c’est que cela enlève de la valeur ajoutée à ce que pourrait produire la pluralité de leurs offres alors que ça devrait être un avantage pour eux face à la concurrence. Les sociétés Yseop ou IBM disposent d’outils pouvant palier à ces problèmes : des intelligences artificielles expertes en banques. Après la collecte d’informations chez le client, l’outil va déterminer le produit le plus adapté. Il expliquera même au conseiller comment présenter la solution aux clients, et en quoi cette solution est la meilleure pour eux et quels sont les risques auxquelles ils font faces. Un tel outil offrira une hausse de 15 pourcents du nombre de clients des banques l’utilisant. Il permettra également de mieux conseiller le client et, par conséquent, de le fidéliser plus significativement. Mais les systèmes d’analyse de crédit ne sont pas les seules intelligences artificielles présentes dans nos banques. Certaine application de prédiction d’éléments métiers peuvent également permettre de définir un taux d’attrait d’un client et même déterminer lorsqu’un client souhaitera quitter la banque, tout en indiquant comment y remédier. Ces deux dernière applications sont aujourd’hui largement répandues dans les banques et donc dans notre quotidien sans que nous en soyons conscients.
  • 40. Mémoire de fin d’études Florian GRENIER Page 39 Par ailleurs, un autre type d’application commence à voir le jour : les chat-bot. Ils permettent de court-circuiter le conseiller lors d’une phase de pré qualification du client et de récupération d’informations. Le robot pourra également répondre à des questions répétitives et simples soulageant ainsi les opérateurs qui pourront donc se concentrer sur des dossiers plus importants. Nous pouvons également appliquer l’ia dans la finance, ou les réseaux de neurones travaillent quotidiennement. 4.3) Finance Dans la finance, les enjeux sont énormes et il est important de prendre des décisions le plus vite et le plus qualitativement possible ce qui demande une grande capacité de calcul. C’est pour cela que la société Bridgwater Associates a engagé David Fiorucci, le créateur de l’application Ibm Watson qui peut rivaliser avec l’homme sur un jeu de stratégie. Son but étant de concevoir une intelligence artificielle capable de gérer un fond d’investissement dans sa totalité. Pour ce faire, l’application va créer ses propres algorithmes en fonction de données statistiques. Ce qui permettra d’analyser l’historique de l’évolution du marché et ainsi doter l’algorithme d’une logique prédictive au sommet de l’innovation. En effet cela fait une quinzaine d’années que les logiciels intelligents travaillent déjà pour les marchés mais ce projet est une révolution du fait que pour celui-ci il n’y aura pas besoin d’homme à l’origine des scénarios à suivre : la machine les définira par elle-même. De plus dans ce genre de secteurs les machines ont de l’avenir car même les plus talentueux ingénieurs ont du mal à faire des prédictions fiables quant aux tendances des marchés. Mais ce genre de projet fait peur aux économistes car en 2010, une application mal réglée fut lancée sur les marchés anéantissant certaines capitalisations boursières sur la route et créant un crash. En effet, étant donné le grand nombre de stratégies possibles et de facteurs externes, les courbes du marché peuvent subir de forts changements qui sont difficiles à analyser et à pondérer pour une machine. Il reste néanmoins intéressant de voir les performances que peuvent produire ces algorithmes mais il faut également être conscient des responsabilités déléguées au système et pouvoir dans tous les cas le contrôler.
  • 41. Mémoire de fin d’études Florian GRENIER Page 40 L’utilisation des systèmes intelligents dans les finances peuvent mener à réflexion. Mais il existe un autre domaine ou les applications d’IA sont controversés : le militaire. 4.4) Militaire De nombreux algorithmes de systèmes experts, de reconnaissance d’images ainsi que des réseaux neuronaux sont utilisés dans le militaire. Le système ALPHA fut conçu pour contrôler une flotte de drones dans des missions de combat aérien en environnement simulé. Le système a déjà surpassé ses prédécesseurs ainsi qu’une série d’humains aux commandes d’avions virtuels. Le programme disposait de quatre avions pour défendre un littoral tandis que les attaquants disposaient des deux avions plus lourdement armés et même avec un avantage de vitesse parfois. A chaque fois, aucun des avions d’ALPHA ne fut détruit. Les témoignages des pilotes affirment que le système était le plus rapide, agressif et réactif qu’ils ont eu à affronter. Pour parvenir à un tel résultat, la société Psibernetix a mis en place des techniques dérivées de logique floue consistant à analyser un grand nombre de possibilités avant de prendre une décision. L’IA fonctionne avec un processeur 3.2 Ghz et va analyser la totalité de ses entrées provenant des capteurs tous les 6.4 millisecondes. Par la suite elle va organiser ces données, cartographier le scénario, analyser l’état du combat et modifier ses décisions pour s’adapter aux changements analysés. Les développeurs du système affirment qu’ils peuvent encore augmenter les performances en perfectionnant l’algorithme génétique d’apprentissage automatique qui enseigne les bonnes pratiques au logiciel. Le système est encore en phase de test mais la société Psibernetix estime que dans un futur proche, son intelligence artificielle pourra travailler en collaboration avec des pilotes humains pour leurs permettre d’effectuer les meilleures actions le plus rapidement possible. Elle pourrait également contrôler des escouades de drones pouvant effectuer des missions périlleuses tandis que les hommes s’occuperaient des missions de support et de soutient mois dangereuses. De nombreuses autres applications existent pour le militaire, tels que les systèmes d’aide à la décision. Des applications qui vont travailler avec de grandes masses de données et les analyser le plus rapidement possible pour produire des analyses rigoureuses et proposer des solutions à un problème donné dans un temps relativement court.
  • 42. Mémoire de fin d’études Florian GRENIER Page 41 Des problématiques subsistent malgré tout lorsque l’on essaie d’aller plus loin et de mettre en service ce genre de systèmes. Des questions d’éthiques se posent, si une machine détient le droit de tuer, sera-t-elle en mesure de distinguer un civil d’un ennemi, pourrait- elle mesurer ses frappes si des dommages collatéraux étaient probables ? Autant de questions qui nous montrent qu’on est encore loin d’avoir abouti à une technologie fiable à 100%, mais les applications sont effectivement de plus en plus impressionnantes. Dans le divertissement numérique, on retrouvera des IA et nous allons nous pencher sur ses applications dans les jeux vidéo. 4.5) Jeux Lorsque l’on parle d’intelligence artificielle, on ne peut pas omettre les jeux vidéo. La plupart du temps, elle est utilisée pour donner vie aux Personnages Non-Joueurs (PNJs). Mais contrairement à la robotique par exemple, le but ici ne sera pas forcement de donner un comportement approché de celui de l’humain au PNJ mais de donner du challenge au joueur. Nous avons les algorithmes de résolution de problèmes travaillant sur des jeux de stratégie tels que les échecs ou le jeu de go. Aujourd’hui ces jeux ont été battus par des intelligences artificielles de grande qualité et les meilleurs joueurs au monde ne peuvent plus rivaliser avec ces programmes. Jeu de go Les premières intelligences artificielles contrôlant des PNJ arrivèrent dans les années 70 avec notamment le jeu Star Trek qui utilisait des Stored Patterns pour contrôler ces PNJs. Ce sont des chemins prédéfinis et des actions simples à conditions.
  • 43. Mémoire de fin d’études Florian GRENIER Page 42 Par la suite, entre 1970 et 1990, l’intelligence artificielle s’améliora significativement avec l’âge d’or des jeux d’arcades offrant de plus en plus de mouvements possibles, des niveaux de difficultés croissants, tout cela déterminé par des fonctions de hachage. C’est dans les années 1990 que les nouvelles formes d’IA virent le jour. Les nouvelles technologies conduisirent à l’utilisation d’automates finis, de stratégie en temps réel prenant en compte un grand nombre de paramètres. Les joueurs demandèrent alors des IA de plus en plus « Humaines » pour améliorer l’immersion. C’est ainsi qu’apparurent des jeux tels que Creatures (1998), utilisant de l’apprentissage automatique, à l’aide de réseaux de neurones, les créatures apprennent à interagir avec leur environnement et avec le joueur. Aujourd’hui les jeux vidéo les plus perfectionnés peuvent utiliser des arbres de recherche, de l’apprentissage automatique et des réseaux de neurones. De nombreux jeux utilisent également le « pathfinding », c’est la technique permettant de se déplacer d’un point vers un autre en empruntant l’itinéraire le plus optimisé. Cette technique est également utilisée dans de nombreux autres domaines tels que la robotique ou encore le routage internet. L’algorithme le plus utilisé pour cette fonction aujourd’hui est l’algorithme de Dijkstra couplé avec l’algorithme A*. Cet algorithme se base sur la théorie des graphes avec les calculs de chemin critique. Contrairement à un algorithme de Dijkstra seul, l’algorithme A* va orienter sa recherche au lieu de tester toutes les possibilités ce qui permettra un gain de temps significatif. Les algorithmes d’intelligence artificielle des jeux vidéo restent aujourd’hui assez simple et sans réel aspect scientifique. Le temps nécessaire à la réalisation d’une IA sérieuse ne serait pas rentable pour une société de jeux vidéo et pourrait offrir des résultats plus qu’aléatoires. Mais si nous mettions en place ce genre d’IA, nous pourrions avoir des jeux qui ne seraient jamais les mêmes pour chaque joueur et chaque partie jouée. Une nouvelle forme de jeux pourrait bien voir le jour d’ici quelques années, les jeux infinis, ayant autant de possibilités de comportement qu’un humain et représentant parfaitement l’effet papillon au fil du temps. Nous allons maintenant analyser l’impact de l’IA en médecine.
  • 44. Mémoire de fin d’études Florian GRENIER Page 43 4.6) Médecine Dans la médecine, il y a de nombreuses connaissance et un grand nombre de relation cause-effet. La société IBM avec son intelligence artificielle Watson, travaille sur l’amélioration des diagnostiques en médecine depuis plusieurs années. En effet, Watson peut analyser la totalité des informations d’un patient puis ensuite travailler en collaboration avec un médecin pour déterminer au mieux le traitement à prescrire au patient. En radiologie, les systèmes sont capables d’analyser et de comparer un grand nombre d’informations très rapidement pouvant ainsi proposer des solutions et des diagnostiques que des médecins n’auraient pas pu voir par manque de temps et de mémoire. Mais si une application peut effectuer des diagnostiques, quel est maintenant le rôle du médecin ? Le médecin à un rôle humain qui ne peut pas actuellement être remplacé par une machine. Le médecin est là pour aider son patient à comprendre son état, il est là pour utiliser son sens critique pour déterminer la véracité des propositions des logiciels. Il sera toujours nécessaire d’avoir un médecin car imaginons une situation grave avec une décision importante à prendre, si Watson propose une solution radicalement différente de celle pensée par le médecin, faut-il se fier à lui ? Etant donné que l’outil est une « boite-noire » et que personne ne sait comment il fonctionne pour effectuer ses corrélations et donner ses diagnostiques. En médecine prédictive, il est compliqué pour un humain de donner des résultats de qualités, conséquence du grand nombre de facteurs génétiques et environnementaux. En utilisant des algorithmes basés sur des réseaux de neurones, ayant subis de l’apprentissage automatique sur de grands nombres d’exemples et tout ceci couplé avec des systèmes experts, on pourrait offrir des résultats de qualités rapidement. On va commencer par utiliser un perceptron multicouche, lui donner un grand nombre d’exemples clairement identifié. Ici le réseau de neurones va devoir pondérer les relations de causalités, ce que ne fait pas un humain de manière fiable. Ensuite on essaie de donner des exemples inconnus au système et s’il arrive à donner des résultats de qualité, c’est alors qu’il a réussi à comprendre la relation entre les facteurs d’entrées et le diagnostic. Mais les réseaux de perceptrons multicouches ne sont pas les seuls types d’intelligence artificielle utilisés en médecine. Ils seront utilisés dans des situations ou on ne connait pas les réponses aux problèmes ou si l’on cherche une optimisation des procédés. Mais si l’on souhaite uniquement automatiser un processus bien connu et avéré, on utilisera surement un réseau bayésien qui sera plus adapté à la situation.
  • 45. Mémoire de fin d’études Florian GRENIER Page 44 Le dernier domaine d’application que je vais expliquer est la logistique. 4.7) Logistique Les applications dans ce domaine sont vastes, autant pour le contrôle de la circulation, la gestion de stocks, le calcul de plan de productions, l’aide à la décision ou la réalisation d’actes de commandes etc… Ce sont toutes les applications relatives à la maitrise de la circulation physique, la distribution et les transports de produits. L’informatique est présente partout en logistique, les points nodaux de réseaux de transport (plateformes, aéroports etc…). En gestion des stocks par exemple, les applications peuvent calculer, surveiller, décider et prévoir l’évolution en fonction de méthodes d’analyses statistiques poussées. 4.8) Robotique La robotique est l’ensemble des techniques d’ingénierie (informatique, électroniques, mécanique…) permettant la conception et la réalisation de machines automatiques ou de robots. Une définition de robot fut donnée par l’unité de recherche ATILF (Analyse et Traitement Informatique de la Langue Française) : « Appareil effectuant, grâce à un système de commande automatique à base de micro-processeur, une tâche précise pour laquelle il a été conçu dans le domaine industriel, scientifique ou domestique ». On aura donc deux types de robots, la machine physique possédant des capteurs et un système logique et aussi le robot logiciel (Bot). La robotique est le domaine dans lequel les différents types d’intelligences artificielles peuvent quasiment tous êtres implémentés. Aujourd’hui, la plupart des robots ne sont que des machines exécutant des taches expertes, mais sans réel apprentissage ou réflexion. Mais on pourrait imaginer des robots mettant en place une acquisition et un apprentissage automatique des connaissances sur le langage naturel par exemple nous donnant ainsi un robot potentiellement capable de communiquer. On pourra aussi lui enseigner les calculs formels et la notion de résolution de problèmes pour le rendre utile. Imaginons coupler tout cela a une reconnaissance des formes, le robot serait alors capable de reconnaitre un visage, lui attribuer un nom, et d’autres caractéristiques.
  • 46. Mémoire de fin d’études Florian GRENIER Page 45 On pourra également parler de la microrobotique et des nanorobots qui sont un champ d’étude en plein essor. Les enjeux d’une telle technologie sont conséquents car pouvant faire avancer nos capacités médicales significativement, le but étant d’injecter ces microrobots dans un organisme avec un but précis (par exemple reconnaitre et détruire des cellules cancéreuses), et les laisser faire ou les contrôler à distance pour les approcher au plus de leur but. 5) Dépasser l’homme ? Maintenant que nous avons analysé l’impact de l’intelligence artificielle sur notre quotidien et sa présence dans le monde, il convient de se poser la question de notre utilité, et plus précisément de l’évolution des performances de l’IA possible dans le futur. Nous allons voir ici si l’intelligence artificielle nous a dépassé ou non, et ce qu’il est possible d’entrevoir pour ce domaine de recherche dans un futur proche ou plus éloigné. On analysera également les risques possibles et les solutions à mettre en place pour prévenir de tels risques. 5.1) Performances : Homme / Machine En termes de performances de calcul, de mémorisation et de classement, la machine a largement dépassé l’homme, encore plus significativement avec l’arrivée des nouveaux processeurs quantiques. Mais pour des opérations de réflexions, de raisonnement ou de communication, l’homme est toujours le plus performant. En effet, la machine est loin d’avoir nos capacités de pensées et la seule intelligence que l’on arrive à obtenir aujourd’hui reste une exécution de lignes de codes dont l’origine est un développeur humain. Pour être plus rigoureux, je comparerais les performances d’une machine avec celle du cerveau humain. La réflexion : Commençons par la réflexion, à la base d’une machine, les données sont actuellement traités avec des bits faisant partie d’un système binaire (0 ou 1). Un humain travaille avec une infinité de réseaux de neurones et est par conséquent capable d’appréhender une ambigüité (si, mais…) alors que la machine restera bloquée sur un système binaire (oui ou non).
  • 47. Mémoire de fin d’études Florian GRENIER Page 46 Les connexions d’un ordinateur sont figées, si l’on crée un robot ayant un capteur de son, d’image et de température, si l’un d’entre eux tombe en panne, le système ne fonctionne plus par inexistence de possibilités d’adaptation. Le cerveau humain, au contraire, possède des milliards de neurones constamment en train de se modifier, de créer de nouvelles connexions pour répondre à une problématique ou une modification environnementale, ce qui amène à un cerveau unique pour chaque être humain. Cela permet également au cerveau de se « reprogrammer », si jamais une fonction n’est plus assurée par une zone du cerveau, alors de nouvelles connexions se créeront pour palier à ce dysfonctionnement. Par exemple, une personne aveugle pourra réussir à se diriger grâce à l’ouïe et le touché alors qu’un robot avec une caméra endommagée, ne sera en aucun cas capable de traiter le moindre signal visuel. Néanmoins, la machine dispose d’une vitesse de « réflexion » largement supérieure à celle du cerveau humain. La vitesse de transport de l’information pour un ordinateur est la vitesse de la lumière (300 000 km/s) alors que dans le cerveau humain, les informations se déplacent à une vitesse approximative de 6 à 10 m/s. La différence est qu’un humain possède des milliards de neurones contrairement à un processeur possédant un nombre minime de transistors. C’est une des limitations actuelle de l’émergence d’une intelligence artificielle forte. La mémoire : Au niveau de la mémoire, une machine est capable de manipuler une quantité quasi infinie d’informations. Le stockage de cette mémoire peut s’effectuer sur différents types de matériel, un disque dur classique ou SSD etc… Mais à la différence du cerveau humain, la machine grave ses informations en dur, une information écrite est infaillible chez l’ordinateur ce qui n’est pas le cas chez l’homme. La capacité à enregistrer de l’homme étant beaucoup plus faible, le cerveau enregistrera les informations par le biais d’associations de différentes choses entre elles. La mémoire s’effectue au niveau des synapses qui réévalueraient leur poids synaptique en fonction de l’accès à l’information. Ce procédé entraine une perte des informations jamais consultée et une réécriture constante de la mémoire ce qui nous donne une mémoire peu fiable.
  • 48. Mémoire de fin d’études Florian GRENIER Page 47 Le traitement de l’information : Au niveau du traitement de l’information, il y a les neurones pour le cerveau, et les transistors pour la machine. On peut se les représenter par des interrupteurs laissant passer ou non un courant. L’ordinateur n’est donc qu’un agrégat de conditions entre le oui/non et les opérateurs logiques et/ou. Avec ceci on obtient la machine de calcul que sont les ordinateurs actuels. Les neurones eux, ont un fonctionnement plus complexe, se sont des entités reliées à de nombreuses autres en sortie et étant reliées elles-mêmes à de nombreux neurones en entrée. On peut avoir des messages en même temps ou encore une variation de la vitesse des messages et de leur intensité. Ce qui montre déjà une différence drastique entre le fonctionnement de l’homme et de la machine, ce qui ne simplifie pas les problématiques de comparaison des performances homme/machine. En effet, le cerveau est loin du fonctionnement binaire d’un processeur. Pour terminer, voici un tableau récapitulatif des performances entre le cerveau et un ordinateur :
  • 49. Mémoire de fin d’études Florian GRENIER Page 48 5.2) La transhumanité et la nanorobotique Transhumanisme, nanorobotique, sciences cognitives et biotechnologies sont des sujets qui font rêver. Tous ces films de science-fiction où l’on voit des hommes transférer leur conscience dans des androïdes, des êtres moitié humains, moitié machines, pouvant vivre plusieurs siècles. Soigner des cancers avec des machines de la taille d’une molécule qu’on injecterait directement dans les organismes. Tous ces sujets sont de réels sujets de recherches et nous avons bien avancé dans ces domaines. Le transhumanisme est le fait de modifier technologiquement un être humain pour l’améliorer, lui donner de nouvelles capacités et le faire passer à un état d’H+, un homme supérieur. Actuellement nous avons des prothèses de plus en plus perfectionnées contrôlés directement par les muscles du sujet, de plus en plus solides et de plus en plus précises. Mais nous n’arrivons toujours pas à reproduire un membre dans son exactitude et à l’interfacer avec le corps humain. Des chercheurs de Californie on réussit à mettre au point un dispositif permettant d’améliorer l’apprentissage d’un humain via des stimulations transcrâniennes. En d’autres termes, ils ont réussi à alimenter directement un cerveau en informations, liées évidemment à l’activité actuelle de celui-ci. Beaucoup de chercheurs transhumanistes cherchent à trouver des moyens de rallonger l’espérance de vie, de rendre l’homme plus fort etc… Mais est-ce bien une bonne idée ? La vie et la mort sont intimement liés et se définissent l’une et l’autre par leur inverse. De gros problèmes peuvent voir le jour avec l’avènement de ce genre de technologies, qui en sera bénéficiaire ? Les plus riches surement, ou si cela devient à la portée de tout le monde nous finirons par être trop nombreux sur la planète sachant que nous commençons déjà à être surpeuplés. Ce genre de thèses sur l’évolution de l’intelligence artificielle inquiète beaucoup les grands de ce monde (Elon Musk, Bill Gates et Stephen Hawking notamment). Ils affirment que si une intelligence légèrement supérieure voyait le jour, nous ne pourrions pas la contrôler, mais nous expliquerons plus en détails les risques dans la partie prévue à cet effet.
  • 50. Mémoire de fin d’études Florian GRENIER Page 49 5.3) Artificial Narrow Intelligence L’Artificial Narrow Intelligence (ANI) correspond à la capacité de traitement de problèmes dans un domaine précis. Tout commença avec les systèmes jouant et gagnant aux échecs comme le Deep Blue d’IBM en 1997, puis ensuite avec des systèmes experts pointus comme dans certains secteurs de la santé, avec notamment les systèmes d’aide au diagnostic. On peut aussi citer les moteurs de recherche (Google etc..), la détection de fraudes bancaires, le système d’aide au crédit de particuliers, la conduite automatique ou assistée (avec la Google Car), Apple SIRI, Microsoft Cortana et Google Translate. Si l’intelligence artificielle n’imite pour l’instant toujours pas l’homme, la force brute et l’usage d’éléments techniques dont l’homme ne dispose pas comme la vitesse de traitement et le stockage de gros volumes de données permettent déjà à la machine de dépasser l’homme dans de nombreux domaines. 5.4) Artificial General Intelligence L’Artificial General Intelligence (AGI) correspond au niveau d’intelligence équivalent à celui de l’homme, avec un côté polyvalent, avec la capacité à raisonner, penser, analyser des données et résoudre des problèmes variés. On peut intégrer dans ce niveau un grand nombre des capacités humaines : l’usage du langage à la fois comme émetteur et récepteur d’informations, la vue et les autres sens, la mémoire et en particulier la mémoire associative, la pensée, le jugement et la prise de décisions,ela résolution de problèmes multi-facettes, l’apprentissage par la lecture ou l’expérience, la perception du monde et de soi-même, l’invention et la créativité, la capacité àdréagir à l’imprévu dans un environnement complexe physique commeeintellectuel ou encore la capacité d’anticipation. On peut y ajouter les sentiments et l’empathie, les envies et les désirs et aussi le rationnel, la remise en question. Pour l’instant, on en est encore loin, même si certaines de ces capacités notamment linguistiques et de raisonnement général sont en train de voir le jour avec plus ou moins de précisions et de viabilités.
  • 51. Mémoire de fin d’études Florian GRENIER Page 50 L’AGI dépend à la fois des progrès matériels et de notre compréhension toujours en évolution du fonctionnement du cerveau humain qui fait partie du vaste champ de la neurophysiologie, allant de la neurobiologie à ladneuropsychologie. Le fonctionnement du cerveau apparaitdau gré des découvertes comme étant bien plus complexe et riche qu’imaginé. Les neurones seraient alors capables de stocker des informations analogiques et non pas binaires, ce qui en multiplierait la capacité de stockage de plusieurs ordres de grandeur par rapport à ce que l’on croyait jusqu’à il y a peu de temps. On sait par contre que le cerveau est à la fois ultra-massivement parallèle avec ses trillions de synapses reliant les neurones entre elles mais très lent (“clock” de 100 Hz maximum). 5.5) Artificial Super Intelligence L’Artificial Super Intelligence (ASI) est la continuité logique de l’étape précédente, liée à la puissance des machines qui se démultiplie et se distribue plus facilement que celle d’un cerveau humain avec ses entrées-sorties et ses capacités de stockages et de traitement limitées. A ce niveau, l’intelligence de la machine dépasse celle de l’homme dans tous les domaines y compris dans la créativité et même dans l’agilité sociale. Le point de dépassement est une “singularité”. Il est évoqué dans de nombreux ouvrages comme dans « The Singularity is Near » de Ray Kurzweil. Dans la pratique, l’IA d’aujourd’hui va déjà bien au-delà des capacités humaines, notamment lorsque la mémoire est en jeu, et également avec les vitesses de calcul. La capacité des systèmes experts, et notamment d’IBM Watson, à brasser d’énormes volumes d’information fournit des capacités inaccessibles à n’importe quel humain, même surdoué.