Support de présentation pour une intervention d'1h / 1h30 sur les questions d'éthique liées aux systèmes d'IA. Enjeux, éléments du débat, pistes de réflexions.
4. L’ingénieur « éthique » sera politisé, ou ne sera pas (11/2019)
Livre: Quelle éthique pour l’ingénieur ? Laure Flandrin & Fanny Verrax(11/2019)
Quelle éthique
pour l’ingénieur ?
4
5. Thales appelle à interdire les «robots tueurs» équipés d’IA. janvier 2019
Les industriels demandent
plus de régulation
5
6. Quand on parle d’IA aujourd’hui,
quels sont les sujets ?
0.
6
7. Quelques grands débats
• les IA générales, et considérations transhumanistes associées
• les IA vont prendre notre boulot
• les IA vont créer une société dystopique
• (re)définition du Deep Learning (est-ce un projet de recherche,
un projet industriel ?), et débat sur les systèmes hybrides en IA
• discours sur les applications, les services à base plus ou
moins d’IA, les startups et financements qui vont avec, champ
médiatique que l’on peut désigner par “hype marketing”
• …
7
9. Encore une fois, les commentaires sur un rapport sur les IA passent à côté de l’essentiel (2018)
Quelles menaces ?
The Malicious Use of Artificial Intelligence: Forecasting,
Prevention, and Mitigation, février 2018
Trois domaines de menaces :
• digital security, menaces par et sur des ressources numériques
• physical security, menaces par et sur des objets matériels
• political security, menaces sur la société et le vivre-ensemble
Un document qu’il faut prendre le temps de lire.
9
10. Puis on a pu parler de
Coopération des intelligences
10
12. « AI is
the new
electricity
Andrew Ng
Google Brain, Coursera, Baidu…
13. Le monde est
en train d’être « cognitisé »,
et les IA ne se remarquent plus
13
14. Et si on passait à la transition cognitive ? (oct 2016)
On peut parler de
« transition cognitive »
La transition numérique ne suffit plus.
La transition cognitive est le passage de tous nos
objets, nos usages, nos activités, notre quotidien
et notre société vers des états où les intelligences
artificielles augmenteront nos capacités intellectuelles
individuelles et collectives.
14
18. 2016 : Moral Machine par le MIT // Février 2020 : Universals and variations in moral decisions
made in 42 countries by 70,000 participants
Une réponse à donner
collectivement
18
19. Autonomous Vehicles and Avoiding the Trolley (Dilemma): Vehicle Perception, Classification, and
the Challenges of Framing Decision Ethics (septembre 2019)
Le problème du trolley égare
les réflexions sur l’éthique
Source image
19
20. Powerful antibiotics discovered using AI (20/02/2020)
AI Can Do Great Things—if It Doesn’t Burn the Planet (21/01/2020)
Les systèmes d’IA peuvent aider
à faire de grandes choses…
20
21. Adopt AI, think later : la méthode Coué au secours de l’intelligence artificielle (2 mars 2020)
Attention à l’injonction
« Adopt AI for everything »
21
22. Pourquoi le solutionnisme par l’IA est un grand danger (01/2020)
Attention à ne pas céder au
Solutionnisme par l’IA
22
23. Kate Crawford : « l’IA est une nouvelle ingénierie du pouvoir » (InternetActu // 09/2019)
Excavating AI: The Politics of Images in Machine Learning Training Sets (Crawford K., Paglen T.)
L’IA est une nouvelle
ingénierie du Pouvoir
23
26. à droite : iCub, le robot qui agit et apprend comme un enfant
à gauche : robot de Boston Dynamics légèrement bousculé
Comment les IA apprennent ?
26
27. Formes d’apprentissage
• empreinte et habituation
• apprentissage par essai / erreur
• apprentissage par l’action
• apprentissage par observation / imitation
• apprentissage par analogie / par transfert
• apprentissage co-actif
• apprentissage par instruction
• méta-apprentissage
27
28. How Machines Learn: The Top Four Approaches to ML in Business (mars 2018)
Types d’apprentissage
• apprentissage supervisé (ex.: regression)
• apprentissage non-supervisé (ex.: clustering)
• apprentissage semi-supervisé
• co-apprentissage
• apprentissage hétéro-associatif
• apprentissage auto-associatif
• apprentissage par renforcement
• apprentissage profond
• apprentissage prédictif
28
30. Sky Magic, Live at Mt Fuji
Et aussi : agents, essaims,
IA distribuées…
30
31. A Gentle Introduction to Transfer Learning for Deep Learning (décembre 2017)
Apprentissage par transfert
31
32. Wikimedia Commons, CC BY-SA 4.0 By Youflavio (Own work)
L’IA est prédictive. Elle modèl(is)e le futur.
Nous devons être très vigilants avec cela.
32
41. Que manque-t-il aux IA ?
• une composante émotive
• une capacité incarnée
• un système de valeurs
• l’attention, qui apporte une composante
directionnelle aux comportements
• des phases de rêve, de cognition libre désincarnée
• la possibilité d’expérimenter le monde
• la compréhension du sens commun
41
43. Should Children Form Emotional Bonds With Robots? (Alexis C. Madrigal, dec 2017)
Quels impacts sur le développement
(de l’intelligence) des enfants ?
43
44. « Les deep fakes progressent à grands pas. » (juin 2019)
Deep fakes vidéo : quand les IA
servent à nous tromper
44
45. Dupée par une voix synthétique, une entreprise se fait dérober 220 000 euros [sept’ 2019]
Deep fakes vocales
45
49. À lire : Référentiel éthique et numérique du Cigref (octobre 2018)
Plusieurs familles d’éthique
(normative (de la vertu, conséquentialiste, déontologie),
appliquée et meta-éthique)
49
54. ∃ 7 questions initiales
Biais des algorithmes
Transparence des algorithmes
Suprémacie des algorithmes
La fabrique du faux
Les systèmes autonomes potentiellement létaux
Les systèmes autonomes de transport
Vie privée / Sûreté,Sécurité / Surveillance
54
55. Une prise de conscience
qui arrive à point nommé
55
57. Dossier «Design de l’attention» par la Fing (2017–2019)
EU should regulate Facebook and Google as ‘attention utilities’ (01/03/2020)
Les abus de l’attention
57
58. Pour y voir plus clair sur les notions de transparence et d’explicabilité en IA (février 2020)
Transparence & Explicabilité
58
59. Extrait de Principled Artificial Intelligence (janvier 2020)
“Les principes regroupés sous ce thème énoncent
des exigences selon lesquelles les systèmes d’IA
doivent être conçus et mis en œuvre de manière
à en permettre leur supervision, notamment par
la traduction de leurs opérations en résultats
intelligibles et par la mise à disposition
d’informations sur le lieu, le moment et la manière
dont ils sont utilisés.”
59
60. T+E : synonymes
• interprétabilité, auditabilité, prédictabilité,
• droit à l’information, consentement et usage éclairés,
• notifications, reporting,
• understandable AI, intelligibilité,
• vérifiabilité,
• responsabilité (accountability, liability, responsibility),
• contrôle humain de la technologie,
• effectivenness
60
61. Ouverture (data, algos)
• l’ouverture des données et des algorithmes dans le domaine
de l’IA est depuis longtemps un point acquis.
• il s’agit également d’ouvrir de manière pro-active, c’est-à-
dire produire collectivement des bases de données ouvertes
(visages, postures, situations routières…).
• l’ouverture des algorithmes est par ailleurs un préalable au
principe de vérifiabilité (validation par des organismes tiers,
certification…)
61
62. Droit à l’information
• “right to explanation” au cœur du RGPD.
• droit de savoir quels paramètres, quelle logique, quelles
techniques et quelles informations personnelles ont été
utilisées lors d’un processus de prise de décision effectué par
des IA (ou des algorithmes en général).
• pleinement utile à condition que les informations délivrées
lors de son exercice soient intelligibles, et facilement
accessibles.
• design d’accès à l’information.
62
63. Principe de notification• quand une IA a été utilisée, ou quand elle est actuellement
utilisée, la personne qui en fait l’objet doit en être informée.
• possibilité de refuser un tel traitement.
• demander à accéder à un être humain, et/ou d’obtenir
l’assurance qu’un être humain est dans la boucle pour vérifier
et éventuellement corriger le processus en cours.
• possibilité d’apprécier (au sens de mesurer) les avantages de
l’intervention IA (forme de pédagogie).
• être prévenu quand on interagit avec une IA et non pas un
humain.
• design de la vigilance.
63
64. Human Rights in the Age of Artificial Intelligence [AccessNow, nov 2018]
Ouverture des marchés publics
“When a government body seeks to acquire an AI system or
components thereof, procurement should be done openly and
transparently according to open procurement standards.
This includes publication of the purpose of the system,
goals, parameters, and other information to facilitate public
understanding. Procurement should include a period for public
comment, and states should reach out to potentially affected
groups where relevant to ensure an opportunity to input.”
64
65. Compte-rendu continu
• que les organisations utilisant des systèmes d’IA informent
régulièrement le public sur ces utilisations : comment
les objectifs souhaités ont été atteints, comment ont été
minimisés les risques, quelles erreurs / brèches / fuites / effets
indésirables ont été découvertes et comment ont-elles été
traitées ?
• mécanisme de mise en œuvre de la Transparence et de
l’Explicabilité, ET…
• preuve de l’effectivité de ces exigences.
65
66. La transparence n’est pas
toujours désirable
When Transparent does not Mean Explainable (PDF, 3 pages) 66
70. An Open Letter : Research Priorities for Robust and Beneficial Artificial Intelligence. [01/2015]
Une lettre ouverte…
Janvier 2015: à l’initiative du britannique Stuart Russel,
spécialiste IA, une dizaine de chercheurs signent une lettre
ouverte appelant leurs collègues à aller au-delà du simple
objectif historique de la performance des IA.
«Cette recherche est nécessairement interdisciplinaire, car
elle implique à la fois la Société et l’Intelligence Artificielle.
Elle s’établit de l’économie au droit et à la philosophie, de la
sécurité informatique aux méthodes formelles et, bien sûr, au
sein des diverses branches de l’IA elle-même. […] Trois sujets
sont à traiter à court terme : l’impact de l’IA sur l’économie, les
questions d’éthique et de droit, la robustesse des artefacts.»
70
71. «Google employees: We no longer believe the company places values over profits.»
Une lettre ouverte…
Novembre 2018 : à l’initiative de 11 employés de Google,
des centaines d’employés de Google signent publiquement
une demande d’abandon du projet DragonFly, un moteur de
recherche facilitant la censure.
“Many of us accepted employment at Google with the
company’s values in mind, including its previous position on
Chinese censorship and surveillance, and an understanding
that Google was a company willing to place its values above
its profits,” […] “After a year of disappointments including
Project Maven, Dragonfly, and Google’s support for abusers,
we no longer believe this is the case.”
71
72. « On cherche à éveiller la conscience éthique des développeurs et data scientists » (juin 2018)
Un « serment d’Hippocrate »
pour les data scientists
72
73. Julien de Sanctis, philosophie et éthique appliquées à la robotique interactive
Ethics of Technology Needs More Political Philosophy (janvier 2020)
Intégrer des philosophes
dans les équipes
73
79. Principes-clé
principe de bien-être
principe de respect de l’autonomie
principe de protection de l’intimité et de la vie privée
principe de solidarité
principe de participation démocratique
principe d’équité
principe d’inclusion de la diversité
principe de prudence
principe de responsabilité
principe de développement soutenable
79
80. Lignes directrices en matière d’éthique pour une IA digne de confiance, 8 avril 2019 80
81. Intelligence artificielle : des limites de l’éthique aux promesses de la régulation (18/04/2019)
Un exercice difficile,
entre éthique & régulation
81
82. Ethics guidelines for trustworthy AI (European Commission, 8 April 2019)
Pour une IA digne de confiance
facteur humain & contrôle humain
robustesse & sécurité
respect de la vie privée et gouvernance des données
transparence
diversité, non-discrimination et équité
bien-être sociétal et environnemental
responsabilisation
82
83. À lire dans le Chapitre III: évaluation d’une IA digne de confiance
Liste d’évaluation pour une IA
digne de confiance
83
84. White Paper on Artificial Intelligence: a European approach to excellence and trust. (19/02/2020)
Sortie du Livre blanc Europe IA
84
85. Lien vers la consultation
Une consultation en cours
jusqu’au 30 mai 2020
85
87. 1. Réfléchir à l’intelligence des artefacts
nous amène à réfléchir à notre propre
intelligence, à la manière dont nous
l’exerçons, à nos rapports aux autres,
aux animaux, au monde…
87
88. 2. Mettre en place des principes éthiques
concernant les données et les systèmes
d’IA, et les suivre, peut constituer un
un différenciant de marché.
88
89. 3. À l’échelle internationale, est
actuellement ouverte (2019-2020) une
occasion unique de convergence des choix
éthiques, avant que les technologies et les
usages nous mènent au fait accompli.
89
90. 4. À l’échelle de l’Humanité, cette même
fenêtre d’opportunité est à saisir, tant que
nous en avons encore le loisir et le temps
de réfléchir collectivement à ce que nous
voulons faire de nos outils.
90
94. Retrouvez les références de cette
présentation en fouillant ici et là sur :
https://www.slideshare.net/aymeric
https://medium.com/@AymericPM
+ Références complémentaires à suivre en bas de quelques pages 94