Ce diaporama a bien été signalé.
Nous utilisons votre profil LinkedIn et vos données d’activité pour vous proposer des publicités personnalisées et pertinentes. Vous pouvez changer vos préférences de publicités à tout moment.

Intelligence artificielle Neuro-inspirée

325 vues

Publié le

Présentation lors de l'évènement #FranceIA à la Cantine Numérique à Brest, donnée également lors de la journée tutorale en présence des maîtres d'apprentissage à l'IMT Atlantique.

  • Soyez le premier à commenter

Intelligence artificielle Neuro-inspirée

  1. 1. Intelligence Artificielle Neuro-inspirée Projet Br.A.In. Nicolas Farrugia Br.A.In. 2 mars 2017 Travail avec Vincent Gripon Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 1 / 20
  2. 2. Br.A.In. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
  3. 3. Br.A.In. Brain-inspired Artificial Intelligence Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
  4. 4. Br.A.In. Imagerie cérébrale Réseaux de Neu- rones Artificiels Traitement du Signal et des Images Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
  5. 5. Plan 1 Intelligence Artificielle Définition La révolution artificielle Intelligence artificielle vs. intelligence naturelle L’apprentissage profond et ses limites 2 Apprentissage versus Stockage Calcul vs. information Codage correcteur d’erreurs Mémoires associatives 3 Neuroimagerie et Intelligence artificielle Réseaux de neurones profonds et perception visuelle I.A. et encodage du langage Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
  6. 6. L’intelligence artificielle : définition L’intelligence d’un algorithme On qualifie d’intelligent un algorithme qui, une fois programmé, est incapable de répondre au problème pour lequel il a été conçu. C’est par l’observation et/ou la manipulation qu’il acquiert sa fonctionalité. Exemple Un algorithme qui calcule l’hypoténuse à partir des deux autres longueurs d’un triangle rectangle n’est pas “intelligent”, Un algorithme qui découvre par lui-même la relation et est capable de généraliser à partir d’exemples données est qualifié d’“intelligent”. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
  7. 7. L’intelligence artificielle : définition L’intelligence d’un algorithme On qualifie d’intelligent un algorithme qui, une fois programmé, est incapable de répondre au problème pour lequel il a été conçu. C’est par l’observation et/ou la manipulation qu’il acquiert sa fonctionalité. Exemple Un algorithme qui calcule l’hypoténuse à partir des deux autres longueurs d’un triangle rectangle n’est pas “intelligent”, Un algorithme qui découvre par lui-même la relation et est capable de généraliser à partir d’exemples données est qualifié d’“intelligent”. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
  8. 8. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage supervisé Régression, Nécessite un expert, Débouche sur des tas d’applications : Jouer à un jeu, Reconnaître des formes, Résoudre un exercice de maths... Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  9. 9. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage supervisé Régression, Nécessite un expert, Débouche sur des tas d’applications : Jouer à un jeu, Reconnaître des formes, Résoudre un exercice de maths... Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  10. 10. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage supervisé Régression, Nécessite un expert, Débouche sur des tas d’applications : Jouer à un jeu, Reconnaître des formes, Résoudre un exercice de maths... Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  11. 11. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage non-supervisé Partitionnement, Nécessite une échelle spatiale, Pour beaucoup, c’est le “vrai” support de l’intelligence : Représentation du monde, langage, Compression, Source d’hypothèses. . . Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  12. 12. Apprentissage supervisé et non supervisé L’apprentissage Apprendre, c’est généraliser (= mémoriser), Apprentissage non-supervisé Partitionnement, Nécessite une échelle spatiale, Pour beaucoup, c’est le “vrai” support de l’intelligence : Représentation du monde, langage, Compression, Source d’hypothèses. . . Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
  13. 13. Des algorithmes intelligents pour quoi faire ? La révolution artificielle Écho à la révolution industrielle, Automatisation du travail intellectuel pénible, Réduction des inégalités (médecine, confort, vieillissement...). La singularité Nouveaux outils pour traiter/trier les informations, Écart immense biologique et électronique, Aller au delà des limites de l’homme biologique. Les post-mathématiques L’automatisation de preuves, Le multi-agents et la simulation informatique, La complémentarité mathématiques discrètes/continues. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
  14. 14. Des algorithmes intelligents pour quoi faire ? La révolution artificielle Écho à la révolution industrielle, Automatisation du travail intellectuel pénible, Réduction des inégalités (médecine, confort, vieillissement...). La singularité Nouveaux outils pour traiter/trier les informations, Écart immense biologique et électronique, Aller au delà des limites de l’homme biologique. Les post-mathématiques L’automatisation de preuves, Le multi-agents et la simulation informatique, La complémentarité mathématiques discrètes/continues. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
  15. 15. Des algorithmes intelligents pour quoi faire ? La révolution artificielle Écho à la révolution industrielle, Automatisation du travail intellectuel pénible, Réduction des inégalités (médecine, confort, vieillissement...). La singularité Nouveaux outils pour traiter/trier les informations, Écart immense biologique et électronique, Aller au delà des limites de l’homme biologique. Les post-mathématiques L’automatisation de preuves, Le multi-agents et la simulation informatique, La complémentarité mathématiques discrètes/continues. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
  16. 16. Intelligence artificielle et intelligence naturelle Quelle est la couleur du cheval blanc d’Henri IV ? √ 3 0 x3 (1 + x2 )dx Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
  17. 17. Intelligence artificielle et intelligence naturelle Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
  18. 18. Intelligence artificielle et intelligence naturelle Il n’y a qu’un seul modèle duquel s’inspirer : le cerveau. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
  19. 19. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  20. 20. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  21. 21. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  22. 22. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  23. 23. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  24. 24. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  25. 25. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  26. 26. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  27. 27. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  28. 28. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  29. 29. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Non linéarités Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  30. 30. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) Paramètres Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  31. 31. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) “How to grow a mind: statistics, structure, and abstraction”, Science, 2011. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  32. 32. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) “How to grow a mind: statistics, structure, and abstraction”, Science, 2011. “Intriguing properties of neural networks”, Arxiv research report, 2013. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  33. 33. Les réseaux de neurones profonds Entrée x Sortie y y = f (W4 · f (W3 · f (W2 · f (W1 · x)))) “How to grow a mind: statistics, structure, and abstraction”, Science, 2011. “Intriguing properties of neural networks”, Arxiv research report, 2013. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  34. 34. Plan 1 Intelligence Artificielle Définition La révolution artificielle Intelligence artificielle vs. intelligence naturelle L’apprentissage profond et ses limites 2 Apprentissage versus Stockage Calcul vs. information Codage correcteur d’erreurs Mémoires associatives 3 Neuroimagerie et Intelligence artificielle Réseaux de neurones profonds et perception visuelle I.A. et encodage du langage Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
  35. 35. Mémoire et calcul Mémoire et calculs doivent-ils être. . . Séparés. . . ou inextricablement liés ? Memory Processing unit Control unit Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 8 / 20
  36. 36. Le schéma de Shannon appliqué au cerveau Perception Mémoire Monde extérieur riche et exubérant Codage de source Suppression de la redondance naturelle Addition de redondance artificielle Codage de canal Information mentale, parcimonieuse et robuste Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 9 / 20
  37. 37. Le mystère du stockage de l’information mentale Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  38. 38. Le mystère du stockage de l’information mentale Le rêve est un jambon, lourd, qui pend au plafond Victor Hugo ei π + 1 = 0 8 × 7 = 56 02 29 00 12 77 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  39. 39. Le mystère du stockage de l’information mentale Le rêve est un jambon, lourd, qui pend au plafond Victor Hugo ei π + 1 = 0 8 × 7 = 56 02 29 00 12 77 1 neurone perdu chaque seconde Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  40. 40. Le mystère du stockage de l’information mentale Le rêve est un jambon, lourd, qui pend au plafond Victor Hugo ei π + 1 = 0 8 × 7 = 56 02 29 00 12 77 1 neurone perdu chaque seconde 10% pendant une vie Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  41. 41. Le mystère du stockage de l’information mentale 1 neurone perdu chaque seconde 10% pendant une vie Le ? est un jambon, ?, qui pend au ? ? e?π + 1 =? 8 × 7 =? 02 29 00 ?2 77 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  42. 42. Le mystère du stockage de l’information mentale 1 neurone perdu chaque seconde 10% pendant une vie Le ? est un jambon, ?, qui pend au ? ? e?π + 1 =? 8 × 7 =? 02 29 00 ?2 77 La mémoire à long terme est robuste... et donc nécessairement redondante Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
  43. 43. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  44. 44. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  45. 45. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  46. 46. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  47. 47. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  48. 48. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  49. 49. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  50. 50. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  51. 51. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  52. 52. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  53. 53. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0 Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  54. 54. Un code neural distribué Code distribué : 1 Assemblage de règles simples, 2 Chaque règle couvre plusieurs mémoires, 3 Chaque mémoire est couverte par plusieurs règles, 4 Permet un décodage itératif. ei π + 1 = 0En deux mots : parcimonie, compétition Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
  55. 55. La redondance correctrice d’erreurs Hebbienne unités c grappes Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  56. 56. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  57. 57. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  58. 58. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  59. 59. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  60. 60. La redondance correctrice d’erreurs Hebbienne unités c grappes Les cliques neurales pour stocker l’information men- tale : Nombre de combinaisons possibles exponentiellement grand, Redondance très forte, Utilisation optimale de la capacité mémoire , Robustesse compétitive avec les meilleurs codes correcteur d’erreurs. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  61. 61. Plan 1 Intelligence Artificielle Définition La révolution artificielle Intelligence artificielle vs. intelligence naturelle L’apprentissage profond et ses limites 2 Apprentissage versus Stockage Calcul vs. information Codage correcteur d’erreurs Mémoires associatives 3 Neuroimagerie et Intelligence artificielle Réseaux de neurones profonds et perception visuelle I.A. et encodage du langage Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
  62. 62. Visualiser les réseaux de neurones profonds Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 13 / 20
  63. 63. Comprendre le codage neural Prédire l’activité cérébrale Il s’agit de construire des modèles d’encodage permettant de prédire la réponse du cerveau. L’I.A. permet de construire de tels modèles, L’utilisation de Réseaux Profonds permet de valider leur plausibilité biologique. Exemples Correspondance entre les premières couches d’un réseau profond de reconnaissance d’images, Encodage cérébral des catégories sémantiques. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
  64. 64. Comprendre le codage neural Prédire l’activité cérébrale Il s’agit de construire des modèles d’encodage permettant de prédire la réponse du cerveau. L’I.A. permet de construire de tels modèles, L’utilisation de Réseaux Profonds permet de valider leur plausibilité biologique. Exemples Correspondance entre les premières couches d’un réseau profond de reconnaissance d’images, Encodage cérébral des catégories sémantiques. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
  65. 65. Réseaux de neurones profonds et perception visuelle “Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 15 / 20
  66. 66. Réseaux de neurones profonds et perception visuelle “Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 16 / 20
  67. 67. I.A. et encodage du langage 11 Nature, 2016 MCGILL BARBADOS WORKSHOP ON GRAPH LEARNING ENCODING MODELS USING NEUROIMAGING Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 17 / 20
  68. 68. I.A. et encodage du langage 12 MCGILL BARBADOS WORKSHOP ON GRAPH LEARNING ENCODING MODELS USING NEUROIMAGING Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 18 / 20
  69. 69. I.A. et encodage du langage 13 MCGILL BARBADOS WORKSHOP ON GRAPH LEARNING ENCODING MODELS USING NEUROIMAGING Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 19 / 20
  70. 70. Conclusion Inspirer l’I.A. grâce au cerveau Deux modèles importants pour l’I.A. Les réseaux de neurones profonds : extracteurs de caractéristiques d’images, mais comportent des limites, Les mémoires associatives comme un modèle de mémoire à long terme fiable. Comprendre le cerveau grâce à l’I.A. Les réseaux de neurones profonds permettent de réinterpréter / confirmer la structure du cerveau, De nombreuses perspectives de découvertes neuroscientifiques. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20
  71. 71. Conclusion Inspirer l’I.A. grâce au cerveau Deux modèles importants pour l’I.A. Les réseaux de neurones profonds : extracteurs de caractéristiques d’images, mais comportent des limites, Les mémoires associatives comme un modèle de mémoire à long terme fiable. Comprendre le cerveau grâce à l’I.A. Les réseaux de neurones profonds permettent de réinterpréter / confirmer la structure du cerveau, De nombreuses perspectives de découvertes neuroscientifiques. Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20
  72. 72. Merci! nicolas.farrugia@imt-atlantique.fr vincent.gripon@imt-atlantique.fr Facebook : Brain-Bzh Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 21 / 20

×