SlideShare une entreprise Scribd logo
1  sur  25
Télécharger pour lire hors ligne
SORTIR DU DÉBAT ONTOLOGIQUE
Éléments pour une sociologie pragmatique des interactions entre humains et êtres
artificiels intelligents
Céline Borelle
La Découverte | « Réseaux »
2018/6 n° 212 | pages 207 à 231
ISSN 0751-7971
ISBN 9782348040863
Article disponible en ligne à l'adresse :
--------------------------------------------------------------------------------------------------------------------
https://www.cairn.info/revue-reseaux-2018-6-page-207.htm
--------------------------------------------------------------------------------------------------------------------
Distribution électronique Cairn.info pour La Découverte.
© La Découverte. Tous droits réservés pour tous pays.
La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les
limites des conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de la
licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie,
sous quelque forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de
l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est précisé que son stockage
dans une base de données est également interdit.
Powered by TCPDF (www.tcpdf.org)
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
DOI: 10.3917/res.212.0207
SORTIR DU DÉBAT ONTOLOGIQUE
Éléments pour une sociologie pragmatique des interactions
entre humains et êtres artificiels intelligents
Céline BORELLE
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
O
n observe actuellement une volonté grandissante de doter des êtres
artificiels (robots, agents virtuels animés, agents conversationnels)
d’une forme d’intelligence sociale. Plusieurs chercheurs, notamment
dans le domaine récent de l’informatique affective (affective computing)1
,
poursuivent l’objectif de concevoir des dispositifs qui simulent à des degrés
divers les interactions humaines. Selon l’anthropologue Denis Vidal (2012),
plusieurs tentatives convergent « pour donner à des machines un statut iden-
tifiable à celui d’un agent “autonome” quand ce n’est pas, plus radicalement,
celui d’une “personne” ». Orientés vers une variété d’usages (thérapie, éduca-
tion, assistance, travail, divertissement, etc.), ces agents artificiels intelligents
peuplent progressivement nos environnements quotidiens (entreprises, insti-
tutions, espaces public et domestique).
La sociologie des sciences et des techniques a permis de prendre de la dis-
tance par rapport à deux types d’approches des entités non humaines (Latour,
1994 ; Thévenot, 1994 ; Dodier, 1997) : l’approche instumentalisante ou
fonctionnaliste qui traite les choses comme un outillage invisible et fidèle de
la raison instrumentale, comme un moyen d’action contribuant par sa fonction
à l’exécution d’un dessein, et l’approche sémiologique ou culturaliste dans
laquelle les choses sont traitées comme des signes qui connotent des cultures
ou des positions dans l’espace social.
Ces travaux ont ouvert de nouvelles pistes d’enquête sur la réorganisation par
les objets techniques des relations des humains entre eux et avec leur environ-
nement. Madeleine Akrich (1987) a d’abord éclairé la possibilité que les non-
humains tendent à faire agir les humains de certaines façons, à induire certains
comportements, à travers la notion de « prescription ». Par la suite, l’analyse
des usages s’est émancipée de l’opposition entre intention et prescription
(Akrich, 1993) pour souligner la tension entre force de guidage et autonomie
1. Constitué autour du travail fondateur de Rosalind Picard au MIT (1995), ce domaine de
recherche étudie de manière pluridisciplinaire (informatique, psychologie, sciences cognitives)
les capacités des systèmes informatiques à reconnaître, exprimer, synthétiser et modéliser les
émotions.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
210 Réseaux n° 212/2018
des objets (Dodier, 1997). En prolongeant la manière dont Gilbert Simondon
(1989) a repensé le « mode d’existence » des objets techniques, Nicolas
Dodier (1995) a montré comment les machines, dont les scripts prévoient à
la fois marge de manœuvre et transgressions, ne sont jamais complètement
ajustées ni finies. En s’appuyant sur la notion de « réseau socio-technique »
forgée par Michel Callon et Bruno Latour (voir Callon, 2006), il a proposé
celle de « solidarité technique » pour désigner la capacité des objets tech-
niques à créer des liens entre des personnes selon des chaînes de dépendance
réciproque.
Quels types d’interactions se nouent entre les humains et les êtres artificiels
intelligents ? Comment la sociologie peut-elle étudier ces interactions ?
Doivent-elles être appréhendées comme un simple simulacre d’interactions
humaines ? Peuvent-elles être considérées comme le lieu où s’établissent des
relations ? Cet article entend faire un état des lieux sur les travaux mobilisables
en sciences sociales et proposer une orientation nouvelle pour construire cet
objet de recherche.
Dans une première partie, on montre comment il est possible de s’appuyer
sur plusieurs travaux qui remettent en cause une approche dualiste en termes
de grand partage pour constituer l’ontologie non plus comme une visée, mais
comme un objet. Ce qui amène, concernant les êtres techniques, à la pro-
position formulée originellement par Steve Woolgar (1985) de se défaire de
l’objectif de distinguer l’homme et la machine.
Dans une deuxième partie, on rend compte des enquêtes existantes en anthro-
pologie de la robotique sur les opérations de détermination ontologique
des êtres artificiels. Ces travaux s’intéressent à l’anthropomorphisation des
machines, c’est-à-dire à la transplantation de traits que nous attribuons spon-
tanément aux êtres humains dans des machines (apparence, mouvements,
intentionnalité, réactivité, formes d’expressivité). Ils montrent comment cette
anthropomorphisation entraîne une modification de la notion de personne
(Vidal et Gaussier, 2016) et s’attachent à décrire la manière dont les concep-
teurs et les usagers travaillent le périmètre de cette notion.
Cette littérature nous permet, dans une troisième partie, de souligner que la
question de l’ontologie se pose au moment d’entrer en relation. Les opérations
de détermination ontologique des êtres hybrides sont intimement liées avec le
souci de trouver des modalités ajustées de cohabitation. On souligne notam-
ment l’importance des interactions expérimentales sur le mode du « comme
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 211
si » avec les êtres hybrides, ainsi que la manière dont ces interactions nous
amènent à développer une certaine créativité relationnelle et sont susceptibles
de reconfigurer nos modalités d’attachement.
Enfin, on propose d’enrichir ces travaux en prêtant davantage attention à la
réflexivité ontologique des acteurs. Dans une perspective de sociologie prag-
matique, on entend suivre les enquêtes auxquelles procèdent les acteurs pour
qualifier le monde, en s’intéressant notamment à la manière dont ils consti-
tuent le social comme un objet d’enquête. Ce qui amène à s’interroger sur
les pratiques ordinaires et spécialisées de naturalisation/dénaturalisation du
monde social.
EN FINIR AVEC LE DUALISME : FAIRE DE L’ONTOLOGIE UN OBJET
La remise en cause des grands partages
Plusieurs travaux ont remis en cause les divisions entre nature et culture,
entre humain et non-humain, entre animé et inanimé, à la fois comme un
donné et comme un outil de description du monde social. Donna Haraway
(2003) a élaboré de manière pionnière le concept de « naturecultures » pour
mettre en lumière la co-constitution, la co-évolution et la co-habitation entre
les espèces, pour penser des relations dans lesquelles les partenaires ne pré-
existent pas à leur mise en relation, et plus généralement pour souligner le fait
que « la chair et le sens, les corps et les mots, les histoires et les mondes »
(p. 20) sont indissociablement entremêlés. Donna Haraway nous invite à nous
montrer attentifs aux êtres hybrides, en s’appuyant sur les notions d’« onto-
logies émergentes » (Verran, 2001) et de « connexion partielle » (Strathern,
1991), de même qu’à accepter d’habiter la contradiction en refusant les
formes de dualisme.
L’anthropologue Philippe Descola (2005) a également montré que la démarche
du « grand partage » entre nature et culture, c’est-à-dire l’institution d’un
monde de choses doté d’une factualité intrinsèque et d’un monde humain régi
par l’arbitraire du sens, relève d’une ontologie « naturaliste » dont le caractère
est à la fois localisé et partiel, d’un point de vue géographique et historique,
ou pour le dire autrement qu’elle n’est qu’une ontologie parmi d’autres pos-
sibles (totémisme, animisme et analogisme), « qu’une des solutions histori-
quement observables pour prendre en charge l’articulation des humains et des
non-humains » (Charbonnier, 2013, p. 94).
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
212 Réseaux n° 212/2018
Dans son travail sur les interactions entre les vivants et les morts, et plus pré-
cisément sur la manière dont les morts « apostrophent » les vivants, Vinciane
Despret (2015) identifie la coexistence possible entre plusieurs ontologies,
comme la présence et l’absence, dans notre traitement des êtres probléma-
tiques. Elle souligne à partir de son enquête la nécessité de ne pas statuer sur
le statut ontologique des êtres impliqués, de faire preuve de tact ontologique,
de s’adresser à la situation là où les personnes situent leur expérience : de
manière non binaire, jamais sur le registre du tout ou rien, en expérimentant
« par le milieu » au sens deleuzien.
Ces travaux invitent à passer de l’ontologie comme visée dans une démarche
philosophique à l’ontologie comme objet d’étude dans une démarche sociolo-
gique ou anthropologique (Holbraad, Pedersen et Viveiros de Castro, 2014).
Comment constituer l’ontologie comme un objet ? Plusieurs travaux pro-
posent précisément d’étudier les pratiques de détermination ontologique des
êtres.
Dans son approche fondatrice en STS, Bruno Latour (1991) souligne que la
division entre nature et culture, bien que dualité fondamentale dans la pensée
moderne, ne doit pas être appréhendée comme une démarcation du monde
supposée a priori. À partir de ce constat, il invite à étudier la production
de la frontière entre nature et culture, en soulignant l’importance des objets
matériels et des institutions dans l’affectation d’un hybride à une catégorie ou
une autre. Pour étudier les interactions entre humains et non-humains, Bruno
Latour (1988) invite à analyser les opérations de traduction pour « figurer
ou défigurer, personnifier ou abstraire, incarner ou désincarner des acteurs »
(p. 303).
Dans la lignée du travail de Bruno Latour, Sheila Jasanoff (2013) élabore
une « grammaire de la co-production » pour travailler sur l’établissement des
frontières entre nature et culture. Elle étudie notamment la co-production de
la science et du droit, en analysant de manière symétrique ce que la science
fait au droit et ce que le droit fait à la science. Cette approche permet de
ré-ouvrir les partages stabilisés entre le social – « le monde que nous avons
créé » – et le naturel – « le monde dont nous imaginons qu’il existe en dehors
de nous » – pour appréhender cette frontière comme se redessinant conti-
nuellement (p. 84). Sheila Jasanoff propose d’étudier les liaisons qui existent
entre le social et le naturel d’un point de vue cognitif, matériel et normatif, en
prenant la division comme un point d’arrivée plutôt que comme un point de
départ.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 213
L’anthropologue américaine rejoint la proposition de Catherine Rémy et
Myriam Winance (2010) qui, à partir de leurs travaux respectifs sur les rela-
tions entre les humains et les animaux et les rapports entre technologie et
handicap, invitent à développer une sociologie des « frontières d’humanité »
en considérant que la commune humanité constitue un point d’arrivée, un
état à réaliser en pratiques et en situation. Dans cette perspective, le carac-
tère humain constitue un accomplissement continu, qui est fait et défait loca-
lement, tout comme le genre chez Harold Garfinkel dans son étude du cas
Agnès (2007).
Se défaire de l’objectif de distinguer l’homme et la machine
Concernant l’étude de l’intelligence artificielle, Francis Chateauraynaud se
situe dans ce sillage lorsqu’il remet en cause l’unicité même de la machine,
son existence en tant qu’entité cohérente. À propos de Marlowe, « sociologue
électronique » (2012) conçu dans le prolongement du logiciel d’analyse tex-
tuelle des controverses Prospero, il souligne que « comme dans la plupart des
systèmes “intelligents”, il n’y a pas un Sujet, un centre de décision unique,
une “personnalité”, mais une foule de petits agents opérant à des niveaux
divers. […] Le “Moi” de Marlowe et un Moi multiple » (2003).
Mais cette piste de recherche est véritablement ouverte à l’origine par Steve
Woolgar (1985). Dans un article programmatique, ce dernier souligne l’im-
portance de se défaire de l’objectif de distinguer l’homme et la machine. Cette
approche qui consiste à différencier les capacités des machines intelligentes et
des êtres humains, pour insister sur les limites des machines, est par exemple
adoptée par Hubert Dreyfus (1984). Le philosophe se donne comme objec-
tif de montrer pourquoi l’intelligence artificielle n’égalera jamais l’intelli-
gence humaine, compétence pratique « intimement liée au fait qu’ils [les êtres
humains] sont dotés de corps, toujours situés, qu’ils sont socialisés dans une
culture donnée, et qu’ils sont capables ainsi de saisir un contexte global, de
s’y situer et de lui donner sens » (Velkovska et Beaudoin, 2014, p. 105).
Cette approche est également adoptée par certains travaux en STS. Harry
Collins (2000) s’intéresse ainsi aux « capacités des ordinateurs et leurs
limites ». Il part du présupposé que « les ordinateurs, comme les autres
machines, diffèrent des êtres humains », première phrase de son article
(p. 21). Il met notamment en avant le fait que les êtres humains partagent
une qualité fondamentale dont ne disposent pas les machines : la « socialité »
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
214 Réseaux n° 212/2018
(socialness), c’est-à-dire la capacité d’acquérir des habiletés pour lesquelles
nous ne pouvons pas formuler de règles, et d’en user de façon créative.
Au contraire, Steve Woolgar (1985) propose de s’éloigner de cette perspective
de recherche qui consiste à « développer une sociologie du même phénomène
que celui que l’intelligence artificielle prend comme sujet d’étude » (p. 566).
Il souligne les limites méthodologiques du postulat qui fonde cette approche,
à savoir la possibilité de distinguer signes superficiels et réalité sous-jacente, à
l’appui par exemple de la distinction entre action et comportement chez Harry
Collins (2000). En effet, ce postulat invalide la démarche même d’observa-
tion en sciences sociales. Steve Woolgar invite finalement à prendre comme
objet les distinctions qui caractérisent et soutiennent le discours sur l’intelli-
gence artificielle plutôt que de prendre position dans les dichotomies qui sont
mobilisées par les acteurs.
ENQUÊTER SUR LES OPÉRATIONS DE DÉTERMINATION
ONTOLOGIQUE : AUTOUR DE L’ANTHROPOMORPHISATION
DES ÊTRES ARTIFICIELS
La remise en cause du piège anthropomorphique
Plusieurs travaux de sociologie des sciences et des techniques se sont inté-
ressés aux représentations des utilisateurs qui étaient mobilisées dans la
conception des objets, notamment à travers la notion de « script » élaborée
par Madeleine Akrich (1987). Le « script » désigne un scénario qui se veut
prédétermination des mises en scène que les utilisateurs sont appelés à ima-
giner à partir du dispositif technique. Cette perspective amène à soulever la
question : quels types de scripts voyons-nous actuellement embarqués dans la
conception des machines anthropomorphisées ?
Les travaux de Lucy Suchman (2004) soulignent une tendance chez les robo-
ticiens à occulter leur contribution non seulement à la conception des robots,
mais également à leur fonctionnement : les interventions des roboticiens et
les dispositifs périphériques qui contredisent l’idée d’une autonomie du robot
seraient laissés « hors cadre ». Dans la continuité de ces observations, le jour-
naliste Nicolas Santolaria (2016) présente la conception de Siri comme par-
tie prenante d’une « vaste entreprise de persuasion animiste » (p. 141) initiée
par Steve Jobs, dans laquelle entre également la création de Pixar, spécialisée
dans la prosopopée.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 215
Néanmoins, plusieurs travaux anthropologiques récents ont permis de
remettre en question la volonté chez les concepteurs de tendre un « piège
anthropomorphique » (Vidal, 2012), c’est-à-dire de favoriser chez les usagers
la confusion entre humain et non-humain.
Ces travaux s’appuient très souvent sur l’œuvre pionnière du roboticien
Masahiro Mori qui a formulé une hypothèse de travail en forgeant le concept
de « vallée de l’étrange (uncanny valley) », inspiré des travaux de Sigmund
Freud sur la notion d’« inquiétante étrangeté » (1919)2
. Cette hypothèse s’ap-
puie sur la comparaison d’artefacts très hétérogènes d’un point de vue culturel
et technologique : robot-outil, marionnette de bunraku (théâtre japonais), ani-
mal empaillé, robot humanoïde, ou encore main prothétique. Masahiro Mori
étudie le degré de familiarité qui transparaît dans les réactions des indivi-
dus face à ces entités et s’interroge sur la manière dont un robot doit être
conçu pour être accepté par les humains. Son idée est que seuls les robots qui
reproduisent certaines caractéristiques humaines sont en mesure de susciter la
familiarité. Jusqu’à un certain point : s’ils imitent trop fidèlement l’humain,
les robots provoquent un sentiment d’étrangeté. La multiplication des traits
anthropomorphiques facilite donc les interactions, mais un trop grand réa-
lisme génère le malaise face à un objet perçu comme monstrueux.
Ces travaux montrent que les frontières du robotisable et de l’artificialisable
font l’objet d’une réflexion entre professionnels, d’une controverse au sein
des champs de la robotique et de la création artificielle, et plus largement
d’un débat social. Il existe des discussions sur l’émergence des « effets de
personne » en création artificielle, l’« effet de personne » étant défini comme
le sentiment d’être face à une entité dotée d’intentions (Vidal, 2016). Par ail-
leurs, si tous les roboticiens partagent l’évidence d’un futur partagé avec les
robots, il existe de nombreuses divergences entre eux « sur la pertinence, la
faisabilité ou la désirabilité des robots “sociaux” » (Grimaud et Vidal, 2012).
Enfin, on observe un débat politique sur l’extension de la catégorie de per-
sonne à des non-humains (animaux ou robots), autour de la question de l’attri-
bution de droits ou encore du transhumanisme (Dufrêne et al., 2016).
2. L’article original de Masahiro Mori, intitulé « Bukimi no tani », est paru en 1970. On doit
au roboticien Karl MacDorman la première traduction en anglais de ce texte à l’occasion d’un
colloque de robotique en 2005. Ce texte a également été traduit en français par les anthropolo-
gues Emmanuel Grimaud et Denis Vidal dans un dossier consacré aux « Robots étrangement
humains » publié en 2012 dans la revue Gradhiva.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
216 Réseaux n° 212/2018
Nicolas Santolaria (2016) insiste sur le fait que Siri n’est accompagné d’aucun
mode d’emploi, ce qui fait de l’assistant vocal « non pas un produit achevé,
mais une potentialité évolutive » (p. 101), ce qui « nous invite à dépasser une
vision fonctionnaliste appauvrie de la technologie » et nous met « dans la
peau d’un Geppetto avec sa créature » (p. 104) au moment d’en explorer les
potentialités. Le journaliste identifie deux modalités importantes visant à pro-
duire le sentiment d’être en présence d’une volonté qui n’entre pas en concur-
rence ontologique avec l’usager humain : l’erreur et l’humour. Ces deux traits
permettent le « paradoxe absolu où, au travers d’une forme d’expression typi-
quement humaine, l’objet tout à la fois rappelle et invalide de lui-même son
statut de machine » (p. 129).
Emmanuel Grimaud (2012) étudie quant à lui le cas de Paro, premier robot
thérapeutique créé par l’ingénieur japonais Takanori Shibata en 1993 dans
une perspective d’« animal therapy ». Prenant la forme d’un bébé phoque
en peluche, Paro est conçu pour « calmer les fous, atténuer la solitude des
vieux, apaiser les femmes enceintes ou accompagner les enfants handica-
pés » (Grimaud, 2012). Par l’apprentissage et la communication sensorielle,
ce robot vise à initier une relation tout autre que la traditionnelle relation de
commande : « je te mets en marche et tu obéis ». Cependant, l’ambition n’est
pas de reproduire à l’identique la relation qu’on peut nouer avec un animal
de compagnie. L’anthropologue identifie plutôt une opération d’« hétéromor-
phose » qui « consiste moins à passer à la moulinette de l’échelle humaine
qu’à calibrer ses inventions aussi finement que possible pour que celles-ci
viennent combler les trous de nos ontologies existantes ». En l’occurrence, il
s’agit de concevoir un animal de compagnie qui ne meurt pas et n’impose pas
les mêmes contraintes d’entretien qu’un animal vivant.
De manière similaire, Agnès Giard (2016) étudie la fabrique des « love
dolls » au Japon. Elle insiste sur le fait que les concepteurs ne visent pas
tant à imaginer des poupées qui se substitueraient à des compagnes, mais à
produire un « simulacre d’être incomplet », un « espace qui invite l’humain
à le remplir ». L’anthropologue observe que dans les magazines dédiés à ces
love dolls, « aucune ligne de démarcation ne semble posée entre la poupée
comme personne et la poupée comme chose ». Les deux ordres de descrip-
tion sont entremêlés : des photographies avec des mises en scène érotiques
très réalistes coexistent avec des photographies techniques assorties d’astuces
d’entretien.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 217
La mise en lumière de pactes anthropomorphiques
Si les concepteurs ne sont pas motivés par la volonté systématique de favo-
riser la confusion entre humain et non-humain, les usagers ne se laissent pas
non plus attirer par ce piège anthropomorphique. Dès la fin des années 1980,
plusieurs travaux de sociologie des sciences et des techniques critiquent la
notion de « projection anthropomorphique ». Bruno Latour (1988) s’insurge
contre la tendance moralisatrice des sociologues à considérer des com-
portements comme le fait de parler à son ordinateur comme « une entrave
scandaleuse aux frontières naturelles », comme une simple « projection
d’un comportement humain sur un objet technique, froid et non humain »
(p. 303). De manière similaire, après avoir souligné que « les repères de
l’engagement de l’objet seront aisément traités non simplement comme
des retours d’informations manifestant l’exécution d’une commande, mais
comme des expressions d’émotions », Laurent Thévenot (1994) met en garde
contre la tentation d’y trouver « les fondements pragmatiques d’une attitude
qui pourrait être vue comme projection irrationnelle anthropomorphique ou
animiste » (p. 88).
Dans la continuité de ces travaux, plusieurs recherches anthropologiques
mettent en lumière des logiques de « pacte anthropomorphique » établies
entre les usagers et les êtres artificiels. Cette notion est proposée par Denis
Vidal (2012) pour décrire les interactions fondées sur l’apparence anthropo-
morphique sans postuler que ceux qui interagissent succombent à une forme
d’illusion cognitive. L’anthropologue a d’abord travaillé sur le rapport des
visiteurs aux statues en cire du musée Grévin. Puis il a étudié les interactions
avec Nao, robot humanoïde crée en 2006 par la société Aldebaran, dans le
cadre de la conception du robot assistant Roméo.
La notion de « pacte anthropomorphique » s’appuie sur la remise en cause
de l’anthropomorphisme comme trait caractéristique de la petite enfance ou
encore des cultures « primitives ». Cette hypothèse a par exemple été déve-
loppée par Jean Piaget qui a affirmé qu’il existe un stade spécifique de déve-
loppement psycho-cognitif des enfants, censé durer jusque l’âge de 4 ou 5
ans, au cours duquel ces derniers présentent une incapacité à faire la distinc-
tion entre les êtres animés et inanimés ainsi qu’une tendance significative à la
pensée animiste, c’est-à-dire au fait de prêter des caractéristiques humaines
(intentions, sentiments, humeurs et conscience) à leur environnement (objets
et événements). À partir des années 1980, plusieurs travaux, et notamment
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
218 Réseaux n° 212/2018
ceux de Stewart Guthrie (1993), ont remis en cause cette idée de l’anthro-
pomorphisme « comme ontologie spontanée et intuitive » (Vidal, 2012) qui
témoignerait d’un état d’immaturité cognitive.
Ces travaux permettent de souligner plusieurs caractéristiques des opérations
d’imputation d’humanité à des objets : leur réversibilité, leur gradation et leur
ambivalence.
Premièrement, l’imputation d’humanité est réversible : elle n’est pas faite
une fois pour toutes, elle peut être faite puis défaite de manière dynamique
dans l’interaction. Dans les interactions avec Nao observées par Denis Vidal
(2012), deux manières de concevoir le robot et d’en parler s’entremêlent :
le robot comme artefact (espèce : machine – sous-espèce : robot) et le robot
comme personne (espèce : personne – sous-espèce : robot). Emmanuel
Grimaud (2012) observe également des opérations de promotion et de rétro-
gradation ontologique de l’objet qui semblent cycliques dans le cas des
interactions avec des robots humanoïdes confusion initiale du robot avec
l’humain, séparation de l’humain et du robot, confusions accidentelles. Selon
lui, la « flexibilité d’usage » fait « qu’un robot peut être tantôt relégué au sta-
tut de dispositif de commande désincarné, tantôt assimilé à de l’humain sur le
mode du “comme si” ».
Deuxièmement, l’imputation d’humanité ne fonctionne pas tant selon l’oppo-
sition binaire entre humain et non-humain que selon un continuum permettant
des opérations de « gradation ontologique » (Grimaud, 2012) et des qualifica-
tions en termes de « quasi-humain » par exemple.
Troisièmement, l’imputation d’humanité peut être ambivalente : on peut
considérer un objet comme étant à la fois humain et non-humain, une pré-
sence comme étant là et pas là, une interaction comme étant réelle et non
réelle. Emmanuel Grimaud (2012) rappelle qu’un grand nombre d’attache-
ments noués par les humains avec les choses se développent « en autorisant
l’ambiguïté, le flou ou une certaine flexibilité qui permet de ne pas trancher
une fois pour toutes sur leur identité ».
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 219
L’ONTOLOGIE DES ÊTRES : UNE QUESTION QUI SE POSE
AU MOMENT D’ENTRER EN RELATION
Le mode du « comme si »
Les travaux anthropologiques précédemment cités mettent en lumière une
modalité structurante d’interactions entre les humains et les êtres artificiels :
le mode du « comme si ». On fait comme si ce robot, cette statue de cire, cette
poupée était un être humain. Agnès Giard (2016) souligne par exemple qu’il
ne faut pas penser la love doll uniquement « comme un objet-compensation
[…], mais également comme un objet-simulation destiné à ceux qu’attire le
“jeu du faire semblant” ».
Cette modalité d’interactions comporte d’abord une dimension « ludique »
(Grimaud, 2012). Ainsi Denis Vidal (2012) appréhende-t-il la mise en scène
de la confusion entre humains et figures de cire ou robots au prisme de la
« capacité à jouer de manière impromptue de l’ambiguïté » plutôt qu’au
regard de la simple opposition entre « résister à l’illusion » et « être dupé ».
Le mode du « comme si » relève également de la nécessité pragmatique.
L’anthropomorphisme peut être considéré comme un « embrayeur » de
« formes plurielles d’intentions et d’agentivité » (Despret, 2016, p. 37).
Loin de s’apparenter à une confusion entre humain et non-humain, l’anthro-
pomorphisme relève dans cette perspective de l’hypothèse interactionnelle.
L’« extension aux non-humains des modalités interactionnelles propres au
dialogue entre humains » (Airenti, 2012) est considérée comme un pré-requis
pour initier la relation.
Cette analyse rejoint les observations de l’équipe de psychologues constituée
autour de Clifford Nass à l’origine du paradigme CASA (« computers are
social actors »). Ce paradigme indique que les individus adoptent des compor-
tements sociaux avec les technologies, même lorsque de tels comportements
ne coïncident pas avec ce qu’ils pensent des machines (Nass et Moon, 2000).
Cela amène à opérer une distinction « entre un anthropomorphisme repré-
sentationnel, risquant toujours d’être assimilé sur le plan épistémologique à
une sorte de carcan cognitif, d’un anthropomorphisme interactif, considéré
comme un instrument relationnel d’évaluation et d’ajustement aux objets qui
nous entourent » (Grimaud et Vidal, 2012).
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
220 Réseaux n° 212/2018
Les « effets de personne » produits en situation ne sont donc pas une simple
affaire de perception, où l’attribution d’un statut ontologique est jouée à
l’avance, mais procèdent plutôt selon une dynamique de recherche d’une rela-
tion ajustée, les problèmes d’imputation d’humanité et de cohabitation étant
intimement liés.
La reconfiguration de nos modalités d’attachement
À travers son intérêt croissant pour la dimension émotionnelle ou affective
des relations hommes-machines, la création artificielle explore « l’épaisseur
relationnelle de la vie en société » (Grimaud et Vidal, 2012). Que ce soit à la
frontière entre l’amitié et la fonctionnalité ou encore entre l’amour et le désir,
l’apparition de compagnons artificiels instaure des agencements relationnels
compliqués et ambigus. Plusieurs travaux ouvrent des pistes pour appréhen-
der la dimension affective des usages de ces technologies et l’« attachement
aux cyber-choses » (Abbou et Giard, 2017).
La conception du programme informatique Eliza est l’un des premiers lieux
où la possible complicité entre un artefact relationnel et un être humain a été
constatée. Entre 1964 et 1966, Joseph Weizenbaum a mis au point un agent
conversationnel capable de simuler une capacité d’écoute à la manière d’un
psychothérapeute (notamment par la formulation de relances). L’ingénieur
a alors constaté ce qui sera par la suite appelé l’« effet Eliza » : sans se
méprendre sur le statut d’Eliza, ses étudiants éprouvent une grande avidité à
interagir avec le programme et une tendance à vouloir combler ses manque-
ments. Depuis, plusieurs chercheurs se sont attachés à mesurer les sentiments
suscités par les créatures artificielles. Cory Kidd (2008) entend par exemple
montrer dans sa thèse comment les robots, par leur présence physique capti-
vante, suscitent des sentiments plus intenses que les agents en ligne.
Des travaux anthropologiques, très contrastés dans leur posture, soulignent
que la création artificielle produit des hybrides qui reconfigurent nos capaci-
tés d’attachement. Ce terme d’attachement est privilégié, car il est « suffisant
vague pour permettre tous les degrés d’intensité, englobant aussi bien les rela-
tions les plus utilitaires aux objets, l’amitié ou l’amour de son prochain que
les dépendances plus ambiguës ou difficiles à qualifier comme celles que l’on
peut entretenir avec un ordinateur ou un animal de compagnie » (Grimaud,
2012). Dans la sociologie du goût élaborée par Antoine Hennion (2004), cette
notion d’attachement permet également de se défaire de l’alternative entre
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 221
l’idée que « l’objet contient ses effets » (p. 11) et l’idée que « les objets sont
ce que nous en faisons » (p. 10) pour introduire la notion de « médiation »,
c’est-à-dire les « moyens qu’on se donne pour saisir l’objet » (p. 12).
L’anthropologue américaine Sherry Turkle (2015) s’est intéressée à nos
modalités d’engagement avec les machines conçues « pour être avec nous »
(p. 47). Elle a étudié les premières rencontres et les relations tissées sur un
temps court entre des personnes à différents moments de leur cycle de vie
(enfance, âge adulte, vieillesse) et des dispositifs variés (Tamagotchi, Furby,
Aibo, Paro, My real baby, Cog, Kismet, Domo, etc.). Selon Sherry Turkle,
on assisterait à l’émergence d’une « sensibilité bionique » (p. 72) avec l’arri-
vée de robots compagnons. Nos interactions avec les machines changeraient
de nature : « la psychologie de la projection fait place à une psychologie de
l’engagement » (p. 75) ; « on passe du simple test Rorschach à une véritable
relation » (p. 159).
L’anthropologue identifie deux ressorts de cette évolution : premièrement,
les robots sociaux nous invitent à prendre soin d’eux et « nous aimons ce
dont nous prenons soin » (p. 64). Deuxièmement, ils s’adaptent à l’usager et
développent une personnalité au fil des usages3
. Ces deux ressorts sont par
ailleurs inscrits dans un contexte plus général caractérisé par un détourne-
ment vis-à-vis des « mécanismes intérieurs » et un intérêt grandissant pour
les « mécanismes du comportement » (p. 93). Sherry Turkle défend l’idée
que les robots sociaux nous invitent à nous attacher à eux et que ces attache-
ments modifient notre façon d’être au monde. De manière très pessimiste,
elle met en avant un risque d’appauvrissement des relations humaines, de
« relâchement moral » (p. 204) qui se traduirait par une diminution de nos
attentes à l’égard des relations humaines. La solitude dans la co-présence
avec le robot, cet « amour à sens unique » (p. 215), changerait progressive-
ment de statut : de substituable et choisi par défaut, le robot deviendrait égal
voir préférable à une personne.
3. Ce qui n’est pas sans rappeler la condition d’une temporalité longue pour entrer dans le
« traitement en personnalité des choses » au sens de Laurent Thévenot (1994), c’est-à-dire
dans la possibilité pour une chose de maintenir une personne, de devenir le support de l’assi-
gnation d’une personnalité. De manière plus générale, la personnalisation des objets renvoie
également à la théorie du « soi étendu », développée dans une approche marketing par Russell
Belk (1988) et selon laquelle des objets peuvent devenir parties prenantes de l’identité indi-
viduelle.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
222 Réseaux n° 212/2018
Certains travaux portent enfin plus précisément sur le cas des robots éro-
tiques. Aux antipodes du pessimisme de Sherry Turkle, David Levy (2007)
a affirmé de manière enthousiaste dans sa thèse de doctorat qu’il serait bientôt
possible, et même courant, d’entretenir avec eux de fortes relations de dépen-
dance affective.
De manière plus nuancée, Emmanuel Grimaud (2012) fait l’hypothèse que les
relations entre les humains et les robots sont davantage susceptibles d’être le
lieu d’une tension entre attachement et détachement. Selon l’anthropologue,
on s’empare des capacités sensorielles des robots érotiques non seulement
pour les confondre avec de l’existant, mais également pour « dépassionner
certains objets, désincarner certains liens, et graduer toujours plus les rela-
tions qui les entourent ». Les progrès de la robotique nourriraient donc des
pratiques de gradation des attachements. Plus généralement, nos interactions
avec des agents artificiels nous inviteraient à explorer de « nouvelles gammes
de relations » (Grimaud, 2012), à développer notre créativité relationnelle.
SUIVRE LES ACTEURS DANS LEURS ENQUÊTES :
VERS UNE SOCIOLOGIE DE LA RÉFLEXIVITÉ ONTOLOGIQUE
Souligner la réflexivité des acteurs
Dans les travaux existants sur les interactions avec des êtres artificiels, la
réflexivité des acteurs est parfois évoquée, mais jamais traitée de manière
systématique, ni constituée comme un objet de recherche en tant que tel. Le
mode du « comme si » revêt par exemple une dimension expérimentale : il
fait de l’expérience une énigme (Despret, 2016). Il nous met dans la situation
d’enquêter sur la consistance des effets émergents de personne dans nos inte-
ractions avec les objets (Dufrêne et al., 2016).
À cet égard, Sherry Turkle (2015) souligne dans ses observations des pre-
mières rencontres avec des robots sociaux que les usagers tentent de déter-
miner la nature de l’objet auquel ils sont confrontés. De la même manière,
Nicolas Santolaria (2016) décrit Siri comme une invitation à une « réévalua-
tion de nos certitudes anthropologiques » qui suscite une « perplexité onto-
logique émergente » (p. 14), ou encore comme un « étalon anthropologique
puissant », un « objet-test » (p. 116).
Ces constats renvoient à la dimension morale de l’activité technique soulignée
par Nicolas Dodier (1995) dans son ethnographie d’une entreprise industrielle à
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 223
travers la notion d’« épreuve de soi ». Considérée comme un élément essentiel
de l’activité des opérateurs, elle est mise en lumière grâce à une appréhension
des relations avec les machines non seulement sur le registre du travail, mais
également de l’action, c’est-à-dire comme une forme d’accomplissement de soi
dans un espace public de jugement au sens de Hannah Arendt (Barthe, 1997).
En mettant en avant l’indétermination des relations entre robots et humains,
les travaux anthropologiques existants indiquent également une certaine
réflexivité émotionnelle chez les acteurs, sans toutefois soulever véritable-
ment cette question. Ils notent que les progrès de la robotique consistent de
plus en plus à « faire voisiner les humains avec des agents au statut flou,
incertain, avec lesquels les modalités de coexistence ne sont jamais acquises
d’avance » (Grimaud et Vidal, 2012).
D’un point de vue émotionnel, les situations d’interactions avec des agents
artificiels sont susceptibles de générer des formes d’incertitude, voire de
malaise explorées par la sociologie des émotions (Hochschild, 2003) : on ne
sait plus quoi ressentir. Elles sont également susceptibles de nourrir des méta-
émotions, des émotions sur les émotions, dont l’importance est soulignée par
Eva Illouz (2016).
Il est fort possible que ces interactions, à l’instar des interactions avec les
animaux domestiques, puissent générer une forte réflexivité, une interrogation
sur la nature de la relation émergente, plutôt qu’un seul « narcissisme canino-
phile » dans lequel le non-humain est utilisé comme un outil de restauration
de l’âme humaine par un amour inconditionnel (Haraway, 2003).
Les travaux existants pourraient ainsi être enrichis par une approche de socio-
logie pragmatique « qui rend justice à la réflexivité des acteurs » (Barthe et al.,
2013, p. 187), quelles que soient l’intensité de cette réflexivité et la manière
dont elle s’actualise (verbalisation, action sur l’action). Cette approche
consiste à suivre les acteurs dans le travail d’enquête – au sens du recueil
de données pour nourrir un questionnement – qu’ils sont amenés à produire
quand ils sont confrontés à des situations problématiques (ou épreuves) dans
lesquelles ce qui se joue n’est pas évident.
Dans son élaboration d’une sociologie des attachements, Antoine Hennion
(2004) souligne par exemple l’importance de la réflexivité des personnes dans
leurs rapports avec les objets. Ce dernier analyse le goût comme une « moda-
lité problématique d’attachement au monde » (p. 9).
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
224 Réseaux n° 212/2018
On peut faire l’hypothèse que les relations avec des êtres artificiels sont le lieu
du déploiement par les acteurs d’une modalité d’enquête ontologique spéci-
fique, caractérisée par une forte dimension exploratoire, au sens de l’expéri-
mentation des possibles.
Le social comme objet d’enquête pour les acteurs
Plusieurs travaux s’attachent à saisir la réflexivité ontologique des acteurs, à
rendre compte des enquêtes auxquelles ces derniers procèdent pour qualifier
le monde, pour dire l’état des choses et des êtres. À partir de sa lecture des
travaux d’Edouardo Viveiros de Castro, Pierre Charbonnier (2010) propose
une redéfinition de la démarche anthropologique comme enquête sur « les
conditions d’autodétermination ontologique des collectifs étudiés » (p. 7), en
soulignant que toute société dispose de pratiques propres pour s’objectiver,
pour déterminer ce qu’elle est. Dans le prolongement des travaux de Philippe
Descola, le philosophe reprend la question des relations entre nature et société
à partir du savoir anthropologique. Il montre comment « l’inscription collec-
tive dans la nature est saisie par les groupes humains comme un problème
dont ils doivent s’acquitter pour exister comme tels » (Charbonnier, 2015,
p. 141).
Dans une recherche antérieure sur le travail ordinaire de la pédopsychiatrie
(Borelle, 2017), on s’est également intéressé aux situations de « tension onto-
logique » dans lesquelles les acteurs s’interrogent sur la nature des problèmes
auxquels ils sont confrontés au cas par cas. On a montré comment les profes-
sionnels produisent un dualisme entre social et psychiatrique, dualisme égale-
ment au fondement d’un grand nombre de travaux de sciences sociales.
On voit comment cette approche permet d’éclairer le social – ou le « collec-
tif » au sens de Bruno Latour pour éviter toute forme de dualisme – comme
un objet d’enquête pour les acteurs. Ce constat ouvre plusieurs pistes de ques-
tionnement. Il invite d’abord à enquêter sur les « sens du social », non plus
pour la philosophie ou la sociologie (Cukier et Gaudin, 2017), mais pour les
acteurs eux-mêmes : qu’est-ce que le social signifie pour eux ? Comment le
social fait-il l’objet à la fois de catégorisations ordinaires et de savoirs spé-
cialisés ? Comment, par exemple, l’interaction sociale est-elle modélisée en
affective computing ? Il serait intéressant d’étudier la littérature existante dans
ce domaine pour préciser la manière dont le social semble pensé en termes de
signal.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 225
Ce constat invite également à s’intéresser aux pratiques ordinaires d’établis-
sement de la socialité, dans le prolongement de l’ethnométhodologie, mais
en ajoutant une couche de réflexivité supplémentaire aux ethnométhodes :
selon quelles modalités pratiques les acteurs s’établissent-ils comme des êtres
explicitement sociaux ? Comment les acteurs élaborent-ils certains aspects de
leur existence comme relevant du social ou non ? On pourrait par exemple
enquêter auprès de concepteurs d’agents intelligents pour comprendre com-
ment ils modélisent les comportements des utilisateurs à partir des neuros-
ciences : dans quelle mesure la référence à cette discipline s’inscrit-elle dans
une forme de dualisme entre cérébral et social ?
Ce constat invite enfin à s’interroger sur les frontières du social : comment
le périmètre de la société est-il produit en pratiques et en situations ? Une
piste d’enquête possible serait de s’intéresser, dans une perspective d’ana-
lyse des controverses, à la problématisation publique du statut des créatures
artificielles à l’occasion d’une affaire récente, comme celle de l’ouverture de
« X-Dolls » qui se définit comme la « première maison close 2.0 à Paris ».
Plus généralement, ces questions sont autant de manières de mener l’enquête
sur la dénaturalisation du monde social, non pas en tant qu’elle est une opé-
ration nécessaire dans toute démarche de sciences sociales (Lemieux, 2012),
mais en tant qu’elle est une opération maniée par les acteurs eux-mêmes, dans
des contextes variés, selon des formes spécialisées ou ordinaires.
On fait l’hypothèse que l’introduction d’êtres hybrides constitue un point
d’observation privilégié de cette réflexivité sur le social, voire que les interac-
tions entre humains et êtres artificiels favorisent cette réflexivité sur le sens du
social, sur la socialité et sur les frontières de la société.
UNE INVITATION À LA CRÉATIVITÉ MÉTHODOLOGIQUE ?
On tente actuellement une première actualisation de ce programme de
recherche en enquêtant sur le recours à des robots sociaux (Nao, Leka et
Reeti) dans l’accompagnement d’enfants qui présentent un TSA (trouble du
spectre autistique) au sein de différentes structures (instituts médico-éducatifs
et hôpitaux de jour).
Le début de cette enquête (entretiens menés avec les professionnels et obser-
vation des séances de formation à l’utilisation du robot Leka) suggère que les
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
226 Réseaux n° 212/2018
professionnels tentent de bricoler de manière réflexive un statut ajusté pour
le robot. Différents paradigmes d’usage sont élaborés : le robot peut être éta-
bli comme un interlocuteur pour l’enfant, comme un médiateur entre l’enfant
et le professionnel, ou encore comme une extension de l’enfant. Les profes-
sionnels s’interrogent sur la façon de l’introduire auprès des enfants : faut-il
présenter le robot et comment ? Doit-il être découvert déjà allumé ou bien
sorti de sa boîte publiquement ? Les professionnels enquêtent sur les interac-
tions qui s’établissent entre les enfants et le robot. Par exemple, ils observent
comment les enfants orientent leur attention quand ils sont mis en présence
du robot.
Cette recherche suggère qu’une démarche ethnographique attentive aux
moments où les acteurs expriment des désaccords et des hésitations peut
apporter un éclairage précieux sur les processus de qualification ontologique.
Ce terrain d’enquête présente un triple avantage pour saisir empiriquement
la réflexivité. Des acteurs s’emparent d’une technologie de manière expéri-
mentale, pour voir ce qu’ils peuvent en faire. Ils sont amenés à se positionner
les uns par rapport aux autres au sein de collectifs. Ils constituent les inte-
ractions entre humains et robots comme un objet d’observation et d’analyse.
On est donc face à des acteurs qui exercent une réflexivité à la fois forte et
­verbalisée.
Néanmoins, la verbalisation n’est pas nécessaire pour saisir empiriquement
la réflexivité des acteurs. En l’appréhendant comme une action plutôt que
comme un processus intérieur, on considère que la réflexivité peut être saisie
par l’observation et le récit d’anecdotes. Quand elle s’exprime à un degré
moindre et se manifeste de manière plus discrète, on peut également envisa-
ger d’adopter une démarche vidéo-ethnographique.
L’approche ethnographique offre donc des outils de travail féconds pour notre
programme. On peut tout de même s’interroger sur l’opportunité de déployer
des formes d’expérimentation méthodologique pour saisir des pratiques plus
intimes. Vinciane Despret s’engage par exemple sur cette voie en explorant
des possibilités contrastées. Pour enquêter sur la réflexivité des scientifiques
avec François Thoreau (2014), elle a mis au point un dispositif d’enquête qui
relève de l’incident « diplomatique » au sens de Bruno Latour (2012). Ce
dispositif consiste à offrir aux interviewés une déclaration de guerre assortie
d’une offre de paix. Pour saisir les sens de la réflexivité auxquels tiennent les
scientifiques, et pour éviter la tentation des sciences sociales de confisquer les
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 227
usages de cette notion, il s’agit de renvoyer la question « c’est quoi la réflexi-
vité ? » aux enquêtés en affirmant que les sociologues n’ont peut-être pas tort
de penser qu’ils ne savent pas. À l’opposé de cette démarche d’enquête par
provocation, Vinciane Despret s’est également engagée dans un « parcours
instruit » entre septembre 2007 et septembre 2008 pour saisir « l’inventivité
des morts et des vivants dans leurs relations » (2015, p. 35). Elle s’est lais-
sée saisir, instruire et conduire par les acteurs selon différentes modalités :
en écoutant leurs récits, en déambulant dans les liens et les mises en rapport
qu’ils opéraient, mais surtout en se posant la contrainte de consigner et de
suivre les conseils qui lui étaient faits – « tu devrais lire…, tu devrais voir…,
tu devrais aller… » (p. 36)4
.
Pour conclure, la diffusion croissante d’êtres artificiels intelligents dans
divers domaines de la vie sociale pose problème à la sociologie. Comment
appréhender les interactions qui se nouent avec ces agents ? Cet article pro-
pose de rendre compte des travaux qui peuvent être mobilisés pour construire
cet objet de recherche. Cet état de l’art permet d’abord de souligner l’impor-
tance de constituer l’ontologie comme un objet en s’attachant à enquêter sur
les opérations de détermination ontologique des êtres. En s’intéressant plus
particulièrement aux travaux anthropologiques sur l’anthropomorphisation
des créatures artificielles, il permet également de comprendre que ces opé-
rations de détermination ontologique sont effectuées en vue de trouver des
modalités de coexistence et d’établir des relations ajustées. Cette synthèse des
travaux existants permet enfin d’ouvrir de manière programmatique de nou-
veaux questionnements. On propose de focaliser l’attention sur la réflexivité
ontologique des acteurs, en s’intéressant notamment aux manières dont ils
constituent le social comme un objet d’enquête quand ils conçoivent et s’ap-
proprient des agents artificiels intelligents. Ce programme de recherche ouvre
plusieurs pistes d’enquête, auprès d’acteurs pluriels (concepteurs et usagers)
et sur divers terrains (débats publics, littérature spécialisée, pratiques et inte-
ractions). Il invite tout autant à mobiliser les outils classiques de la démarche
ethnographique (entretiens, observations, enregistrements vidéo, analyse
documentaire) qu’à développer une créativité méthodologique en inventant
des dispositifs d’enquête originaux.
4. Elle revendique ici une démarche s’inspirant de l’artiste contemporaine Sophie Calle qui
recourt à la contrainte pour vivre des expériences dans le cadre de protocoles très formalisés,
ce qui a pour conséquence de réintroduire de l’imprévu dans la vie quotidienne (Méaux, 2012).
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
228 Réseaux n° 212/2018
RÉFÉRENCES
ABBOU J., GIARD A. (2017), « L’attachement aux cyber-choses : logiciels sen-
timentaux, love-bots et séducteurs de synthèse », Colloque, 15-16 juin, Université
Paris Nanterre.
AIRENTI G. (2012), « Aux origines de l’anthropomorphisme. Intersubjectivité et
théorie de l’esprit », Gradhiva [en ligne] vol. 15, n° 1.
AKRICH M. (1987), « Comment décrire les objets techniques ? », Techniques et
culture, pp. 49-64.
AKRICH M. (1993), « Les objets techniques et leurs utilisateurs, de la conception
à l’action », in B. Conein, D. Dodier, L. Thévenot, Les objets dans l’action, Paris,
Éditions de l’EHESS, pp. 35-57.
BARTHE Y. (1997), « Nicolas Dodier, Les Hommes et les Machines [compte rendu] »,
Genèses, vol. 28, pp. 165-166.
BARTHE Y., DE BLIC D., HEURTIN J.-P., LAGNEAU E., LEMIEUX C.,
LINHARDT D., MOREAU DE BELLAING C., REMY C. et TROM D. (2013),
« Sociologie pragmatique : mode d’emploi », Politix, vol. 3, n° 103, pp. 175-204.
BELK R. (1988), « Possessions and the Extended Self », Journal of Consumer
Research, vol. 15, n° 2, pp. 139-168.
BORELLE C. (2017), « “C’est uniquement social”. Sur la production d’un dualisme
social/psychiatrique en sciences sociales et dans le travail ordinaire de la psychia-
trie », Politix, vol. 30, n° 117, pp. 201-222.
CALLON M. (2006), « Sociologie de l’acteur réseau », in M. Akrich, M. Callon,
B. Latour, Sociologie de la traduction, textes fondateurs, Paris, Presses des Mines,
pp. 267-276.
CHARBONNIER P. (2010), « L’Anti-Narcisse de Viveiros de Castro », La Vie des
idées, mis en ligne le 15 avril.
CHARBONNIER P. (2013) « La nature est-elle un fait social comme les autres ? Les
rapports collectifs à l’environnement à la lumière de l’anthropologie », Cahiers philo-
sophiques, vol. 1, n° 132, pp. 75-95.
CHARBONNIER P. (2015), La Fin d’un grand partage. Nature et société, de
Durkheim à Descola, Paris, CNRS.
CHATEAURAYNAUD F. (2003) « Alan versus Marlowe. Point de vue sociologique
sur l’IA et son avenir », entretien sur le site mauvaisgenres.com.
CHATEAURAYNAUD F. (2012), « Une approche informatisée de l’expertise en
situation de controverse. Marlowe, un sociologue électronique au cœur des humanités
numériques », Experts, n° 100.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 229
COLLINS H. (2000), « Les capacités des ordinateurs et leurs limites », Réseaux,
vol. 18, n° 100, pp. 19-37.
CUKIER A. et GAUDIN O. (2017), Les sens du social, philosophie et sociologie,
Rennes, Presses universitaires de Rennes.
DESCOLA P. (2005), Par-delà nature et culture, Paris, Gallimard.
DESPRET V. (2015), Au bonheur des morts. Récits de ceux qui restent, Paris, La
Découverte.
DESPRET V. (2016), « “Comme si…” : des récits de présence », Persona.
Étrangement humain. Catalogue de l’exposition au Musée du Quai Branly, Paris,
Actes Sud, pp. 35-37.
DODIER N. (1995), Les hommes et les machines, Paris, Métailié.
DODIER N. (1997), « Remarques sur la conscience du collectif dans les réseaux
sociotechniques », Sociologie du travail, vol. 39, n° 2, pp. 131-148.
DREYFUS H. (1984), Intelligence artificielle : mythe et limites, Paris, Flammarion.
DUFRENE T., GRIMAUD E., TAYLOR A.C. et VIDAL D. (2016), « Qui est là ?
Présences-limites et effets de personne », Persona. Étrangement humain. Catalogue
de l’exposition au Musée du Quai Branly, Paris, Actes Sud, pp. 11-17.
FREUD S. (1976) [1919], L’inquiétante étrangeté, Essais de psychanalyse appliquée,
Paris, Gallimard.
GARFINKEL H. (2007) [1967], « “Passer” ou l’accomplissement du statut sexuel
chez une personne “intersexuée”. Première partie », Recherches en ethnométhodolo-
gie, Paris, PUF, pp. 203-295.
GIARD A. (2016), « La love doll au Japon : jeux imaginaires, incarnation et para-
doxes », Interrogations [en ligne], n° 23.
GRIMAUD E. (2012), « Androïde cherche humain pour contact électrique. Les ciné-
tiques de l’attachement en robotique », Gradhiva [en ligne], vol. 15, n° 1.
GRIMAUD E., VIDAL D. (2012), « Aux frontières de l’humain. Pour une anthropo-
logie comparée des créatures artificielles », Gradhiva [en ligne], vol. 15, n° 1.
GUTHRIE S. (1993), Faces in the Clouds. A New Theory of Religion, New York,
Oxford University Press.
HARAWAY D. (2003), The companion species manifesto: Dogs, people, and signifi-
cant otherness, Chicago, Prickly Paradigm Press.
HOLBRAAD M., PEDERSON M., VIVEIROS DE CASTRO E. (2014), « The
politics of ontology: Anthropological positions », Cultural Anthropology website
[online].
HENNION A. (2004), « Une sociologie des attachements. D’une sociologie de la
culture à une pragmatique de l’amateur », Sociétés, vol. 85, n° 3, pp. 9-24.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
230 Réseaux n° 212/2018
HOCHSCHILD A.R. (2003), « Travail émotionnel, règles de sentiments et structure
sociale », Travailler, vol. 1, n° 9, pp. 19-49.
ILLOUZ E. (2016), « Les émotions, catégorie ancienne et catégorie nouvelle de la
sociologie », Congrès de l’AISLF, 4-8 juillet, Montréal.
JASANOFF S. (2013), Le droit et la science en action, Paris, Dalloz.
KIDD C. (2008), Designing for long-term human-robot interaction and application
to weight loss, Thèse de doctorat, Cambridge, MIT.
LATOUR B., [JOHNSON J.] (1988), « Mixing humans and non-humans together:
The sociology of a door-closed », The Sociology of Science and Technology, vol. 35,
n° 3, pp. 298-310.
LATOUR B. (1991), Nous n’avons jamais été modernes. Essai d’anthropologie
symétrique, Paris, La Découverte.
LATOUR B. (1994), « Une sociologie sans objet ? Remarques sur l’interobjectivité »,
Sociologie du travail, vol. 36, n° 4, pp. 587-607.
LATOUR B. (2012), Enquête sur les modes d’existence. Une anthropologie des
Modernes, Paris, La Découverte.
LEMIEUX C. (2012), « Peut-on ne pas être constructiviste ? », Politix, vol. 4, n° 100,
pp. 169-187.
LEVY D. (2007), Love and sex with robots. The evolution of human-robot relation-
ships, New York, HarperCollins.
MEAUX D. (2012), « Les effets escomptés de la contrainte chez Sophie Calle »,
Nouvelle revue d’esthétique, vol. 1, n° 9, pp. 79-90.
NASS C., MOON Y. (2000), « Machines and mindlessness: Social responses to com-
puters », Journal of Social Issues, vol. 56, n° 1, pp. 81-103.
PICARD R. (1995), « Affective computing », M.I.T Media Lab (Perceptual compu-
ting section) [online], Technical report, n° 321.
REMY C., WINANCE M. (2010), « Pour une sociologie des “frontières d’huma-
nité”», Politix, vol. 2, n° 90, pp. 9-19.
SANTOLARIA N. (2016) ? « Dis Siri ». Enquête sur le génie à l’intérieur du smart-
phone, Paris, Anamosa.
STRATHERN M. (1991), Partial connections, Savage, Rowman  Littlefield
Publishers.
SIMONDON G. (1989), Du mode d’existence des objets techniques, Paris, Aubier.
SUCHMAN L. (2004), « Figuring personhood in sciences of the artificial », Depart­
ment of sociology [online], Lancaster University.
THÉVENOT L. (1994), « Le régime de familiarité. Des choses en personne »,
Genèses, n° 17, pp. 72-101.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Sortir du débat ontologique 231
THOREAU F., DESPRET V. (2014), « La réflexivité. De la vertu épistémologique
aux versions mises en rapports, en passant par les incidents diplomatiques », Revue
d’anthropologie des connaissances, vol. 8, n° 2, pp. 391-424.
TURKLE S. (2015) [2011], Seuls ensemble. De plus en plus de technologies. De
moins en moins de relations humaines, Paris, L’Échappée.
VELKOVSKA J., BEAUDOIN V. (2014), « Parler aux machines, coproduire un ser-
vice. Intelligence artificielle et travail du client dans les services vocaux automati-
sés », in E. Kessous, A. Mallard, La Fabrique de la vente. Le travail commercial dans
les télécommunications, Paris, Presses des Mines, pp. 97-128.
VERRAN H. (2001), Science and an African Logic, Chicago, University of Chicago
Press.
VIDAL D. (2012), « Vers un nouveau pacte anthropomorphique ! Les enjeux anthro-
pologiques de la nouvelle robotique », Gradhiva [en ligne], vol. 15, n° 1.
VIDAL D. (2016), Aux frontières de l’humain, dieux, figures de cire, robots et autres
artefacts, Paris, Alma.
VIDAL D., GAUSSIER P. (2016), « Ressemblances de famille et robotique huma-
noïde », in T. Dufrêne, E. Grimaud,A.C. Taylor, D. Vidal (dir.) Persona. Étrangement
humain. Catalogue de l’exposition au Musée du Quai Branly, Paris, Actes Sud,
pp. 235-236.
WEIZENBAUM J. (1966), « ELIZA. A computer program for the study of natural
language communication between man and machine », Communications of the ACM.
WOOLGAR S. (1985), « Why not a sociology of machines? The case of sociology
and artificial intelligence », Sociology, vol. 19, n° 4, pp. 557-572.
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte
Document
téléchargé
depuis
www.cairn.info
-
Orange
Labs
-
-
161.106.4.5
-
18/01/2019
09h55.
©
La
Découverte

Contenu connexe

Similaire à Sortir_du_debat_ontologique._Elements_po-1.pdf

L'espace de formation. Billets de Jean-Paul Moiraud
L'espace de formation. Billets de Jean-Paul MoiraudL'espace de formation. Billets de Jean-Paul Moiraud
L'espace de formation. Billets de Jean-Paul MoiraudMoiraud Jean-Paul
 
Ontologies narratives dans la technologie blockchain
Ontologies narratives dans la technologie blockchainOntologies narratives dans la technologie blockchain
Ontologies narratives dans la technologie blockchainNicolae Sfetcu
 
Le corps dans les réseaux sociaux en ligne - De la technologie du soi à la te...
Le corps dans les réseaux sociaux en ligne - De la technologie du soi à la te...Le corps dans les réseaux sociaux en ligne - De la technologie du soi à la te...
Le corps dans les réseaux sociaux en ligne - De la technologie du soi à la te...Bodyspacesociety Blog
 
Second life: émergence de communautés de pratiques humaines et artificielles?
Second life: émergence de communautés de pratiques humaines et artificielles?Second life: émergence de communautés de pratiques humaines et artificielles?
Second life: émergence de communautés de pratiques humaines et artificielles?alex bal
 
Colloque Nommer l'humain - Appel à communications
Colloque Nommer l'humain - Appel à communicationsColloque Nommer l'humain - Appel à communications
Colloque Nommer l'humain - Appel à communicationsSabrina Mraouahi
 
Cahier du commun 1 : agir en commun, agir le commun
Cahier du commun 1 : agir en commun, agir le communCahier du commun 1 : agir en commun, agir le commun
Cahier du commun 1 : agir en commun, agir le communFrédéric GASNIER
 
Intervention Tiers-lieux et communs, UTT - Université de Technologie de Troyes
Intervention Tiers-lieux et communs, UTT - Université de Technologie de TroyesIntervention Tiers-lieux et communs, UTT - Université de Technologie de Troyes
Intervention Tiers-lieux et communs, UTT - Université de Technologie de TroyesSylvia Fredriksson
 
Biens communs et Société, Violaine HACKER, COMMON GOOD Forum
Biens communs et Société, Violaine HACKER, COMMON GOOD ForumBiens communs et Société, Violaine HACKER, COMMON GOOD Forum
Biens communs et Société, Violaine HACKER, COMMON GOOD ForumViolaine Hacker
 
Les Big Data, pistes de réflexions historiques, éthiques et épistémologiques ...
Les Big Data, pistes de réflexions historiques, éthiques et épistémologiques ...Les Big Data, pistes de réflexions historiques, éthiques et épistémologiques ...
Les Big Data, pistes de réflexions historiques, éthiques et épistémologiques ...Mokhtar Ben Henda
 
Présentation soutenance proposition de thèse Régis Barondeau - 5 mars 2013
Présentation soutenance proposition de thèse Régis Barondeau - 5 mars 2013Présentation soutenance proposition de thèse Régis Barondeau - 5 mars 2013
Présentation soutenance proposition de thèse Régis Barondeau - 5 mars 2013Régis Barondeau
 
Penser la trace numérique : quels paradigmes, quels possibles ? Par Cléo Coll...
Penser la trace numérique : quels paradigmes, quels possibles ? Par Cléo Coll...Penser la trace numérique : quels paradigmes, quels possibles ? Par Cléo Coll...
Penser la trace numérique : quels paradigmes, quels possibles ? Par Cléo Coll...SMCFrance
 
1-chapLien-social-vMA_rev.FGJD_ (2).pdf
1-chapLien-social-vMA_rev.FGJD_ (2).pdf1-chapLien-social-vMA_rev.FGJD_ (2).pdf
1-chapLien-social-vMA_rev.FGJD_ (2).pdfZenabouNassour
 
ICA Lille 2012 - L'agentivité des artefacts comme observable du changement or...
ICA Lille 2012 - L'agentivité des artefacts comme observable du changement or...ICA Lille 2012 - L'agentivité des artefacts comme observable du changement or...
ICA Lille 2012 - L'agentivité des artefacts comme observable du changement or...Marine Gout
 
Pascal Plantard
Pascal PlantardPascal Plantard
Pascal Plantardomsrp
 
Auray serendipité et exploration - étude
Auray serendipité et exploration - étudeAuray serendipité et exploration - étude
Auray serendipité et exploration - étudeLaëtitia Severin
 
211021 focus bio_séance1_def
211021 focus bio_séance1_def211021 focus bio_séance1_def
211021 focus bio_séance1_defmfaury
 
Historique S&O ASBL
Historique S&O ASBLHistorique S&O ASBL
Historique S&O ASBLlambert_c
 
La science comme bien commun : quels enjeux et quelles pratiques de chercheur...
La science comme bien commun : quels enjeux et quelles pratiques de chercheur...La science comme bien commun : quels enjeux et quelles pratiques de chercheur...
La science comme bien commun : quels enjeux et quelles pratiques de chercheur...mfaury
 

Similaire à Sortir_du_debat_ontologique._Elements_po-1.pdf (20)

L'espace de formation. Billets de Jean-Paul Moiraud
L'espace de formation. Billets de Jean-Paul MoiraudL'espace de formation. Billets de Jean-Paul Moiraud
L'espace de formation. Billets de Jean-Paul Moiraud
 
Ontologies narratives dans la technologie blockchain
Ontologies narratives dans la technologie blockchainOntologies narratives dans la technologie blockchain
Ontologies narratives dans la technologie blockchain
 
Le corps dans les réseaux sociaux en ligne - De la technologie du soi à la te...
Le corps dans les réseaux sociaux en ligne - De la technologie du soi à la te...Le corps dans les réseaux sociaux en ligne - De la technologie du soi à la te...
Le corps dans les réseaux sociaux en ligne - De la technologie du soi à la te...
 
Second life: émergence de communautés de pratiques humaines et artificielles?
Second life: émergence de communautés de pratiques humaines et artificielles?Second life: émergence de communautés de pratiques humaines et artificielles?
Second life: émergence de communautés de pratiques humaines et artificielles?
 
Colloque Nommer l'humain - Appel à communications
Colloque Nommer l'humain - Appel à communicationsColloque Nommer l'humain - Appel à communications
Colloque Nommer l'humain - Appel à communications
 
Cahier du commun 1 : agir en commun, agir le commun
Cahier du commun 1 : agir en commun, agir le communCahier du commun 1 : agir en commun, agir le commun
Cahier du commun 1 : agir en commun, agir le commun
 
Intervention Tiers-lieux et communs, UTT - Université de Technologie de Troyes
Intervention Tiers-lieux et communs, UTT - Université de Technologie de TroyesIntervention Tiers-lieux et communs, UTT - Université de Technologie de Troyes
Intervention Tiers-lieux et communs, UTT - Université de Technologie de Troyes
 
Biens communs et Société, Violaine HACKER, COMMON GOOD Forum
Biens communs et Société, Violaine HACKER, COMMON GOOD ForumBiens communs et Société, Violaine HACKER, COMMON GOOD Forum
Biens communs et Société, Violaine HACKER, COMMON GOOD Forum
 
Les Big Data, pistes de réflexions historiques, éthiques et épistémologiques ...
Les Big Data, pistes de réflexions historiques, éthiques et épistémologiques ...Les Big Data, pistes de réflexions historiques, éthiques et épistémologiques ...
Les Big Data, pistes de réflexions historiques, éthiques et épistémologiques ...
 
Présentation soutenance proposition de thèse Régis Barondeau - 5 mars 2013
Présentation soutenance proposition de thèse Régis Barondeau - 5 mars 2013Présentation soutenance proposition de thèse Régis Barondeau - 5 mars 2013
Présentation soutenance proposition de thèse Régis Barondeau - 5 mars 2013
 
Article adml63 17-03_2015
Article adml63 17-03_2015Article adml63 17-03_2015
Article adml63 17-03_2015
 
Penser la trace numérique : quels paradigmes, quels possibles ? Par Cléo Coll...
Penser la trace numérique : quels paradigmes, quels possibles ? Par Cléo Coll...Penser la trace numérique : quels paradigmes, quels possibles ? Par Cléo Coll...
Penser la trace numérique : quels paradigmes, quels possibles ? Par Cléo Coll...
 
1-chapLien-social-vMA_rev.FGJD_ (2).pdf
1-chapLien-social-vMA_rev.FGJD_ (2).pdf1-chapLien-social-vMA_rev.FGJD_ (2).pdf
1-chapLien-social-vMA_rev.FGJD_ (2).pdf
 
Grosjean lacoste2002
Grosjean lacoste2002Grosjean lacoste2002
Grosjean lacoste2002
 
ICA Lille 2012 - L'agentivité des artefacts comme observable du changement or...
ICA Lille 2012 - L'agentivité des artefacts comme observable du changement or...ICA Lille 2012 - L'agentivité des artefacts comme observable du changement or...
ICA Lille 2012 - L'agentivité des artefacts comme observable du changement or...
 
Pascal Plantard
Pascal PlantardPascal Plantard
Pascal Plantard
 
Auray serendipité et exploration - étude
Auray serendipité et exploration - étudeAuray serendipité et exploration - étude
Auray serendipité et exploration - étude
 
211021 focus bio_séance1_def
211021 focus bio_séance1_def211021 focus bio_séance1_def
211021 focus bio_séance1_def
 
Historique S&O ASBL
Historique S&O ASBLHistorique S&O ASBL
Historique S&O ASBL
 
La science comme bien commun : quels enjeux et quelles pratiques de chercheur...
La science comme bien commun : quels enjeux et quelles pratiques de chercheur...La science comme bien commun : quels enjeux et quelles pratiques de chercheur...
La science comme bien commun : quels enjeux et quelles pratiques de chercheur...
 

Sortir_du_debat_ontologique._Elements_po-1.pdf

  • 1. SORTIR DU DÉBAT ONTOLOGIQUE Éléments pour une sociologie pragmatique des interactions entre humains et êtres artificiels intelligents Céline Borelle La Découverte | « Réseaux » 2018/6 n° 212 | pages 207 à 231 ISSN 0751-7971 ISBN 9782348040863 Article disponible en ligne à l'adresse : -------------------------------------------------------------------------------------------------------------------- https://www.cairn.info/revue-reseaux-2018-6-page-207.htm -------------------------------------------------------------------------------------------------------------------- Distribution électronique Cairn.info pour La Découverte. © La Découverte. Tous droits réservés pour tous pays. La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les limites des conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de la licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie, sous quelque forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est précisé que son stockage dans une base de données est également interdit. Powered by TCPDF (www.tcpdf.org) Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 2. DOI: 10.3917/res.212.0207 SORTIR DU DÉBAT ONTOLOGIQUE Éléments pour une sociologie pragmatique des interactions entre humains et êtres artificiels intelligents Céline BORELLE Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 3. O n observe actuellement une volonté grandissante de doter des êtres artificiels (robots, agents virtuels animés, agents conversationnels) d’une forme d’intelligence sociale. Plusieurs chercheurs, notamment dans le domaine récent de l’informatique affective (affective computing)1 , poursuivent l’objectif de concevoir des dispositifs qui simulent à des degrés divers les interactions humaines. Selon l’anthropologue Denis Vidal (2012), plusieurs tentatives convergent « pour donner à des machines un statut iden- tifiable à celui d’un agent “autonome” quand ce n’est pas, plus radicalement, celui d’une “personne” ». Orientés vers une variété d’usages (thérapie, éduca- tion, assistance, travail, divertissement, etc.), ces agents artificiels intelligents peuplent progressivement nos environnements quotidiens (entreprises, insti- tutions, espaces public et domestique). La sociologie des sciences et des techniques a permis de prendre de la dis- tance par rapport à deux types d’approches des entités non humaines (Latour, 1994 ; Thévenot, 1994 ; Dodier, 1997) : l’approche instumentalisante ou fonctionnaliste qui traite les choses comme un outillage invisible et fidèle de la raison instrumentale, comme un moyen d’action contribuant par sa fonction à l’exécution d’un dessein, et l’approche sémiologique ou culturaliste dans laquelle les choses sont traitées comme des signes qui connotent des cultures ou des positions dans l’espace social. Ces travaux ont ouvert de nouvelles pistes d’enquête sur la réorganisation par les objets techniques des relations des humains entre eux et avec leur environ- nement. Madeleine Akrich (1987) a d’abord éclairé la possibilité que les non- humains tendent à faire agir les humains de certaines façons, à induire certains comportements, à travers la notion de « prescription ». Par la suite, l’analyse des usages s’est émancipée de l’opposition entre intention et prescription (Akrich, 1993) pour souligner la tension entre force de guidage et autonomie 1. Constitué autour du travail fondateur de Rosalind Picard au MIT (1995), ce domaine de recherche étudie de manière pluridisciplinaire (informatique, psychologie, sciences cognitives) les capacités des systèmes informatiques à reconnaître, exprimer, synthétiser et modéliser les émotions. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 4. 210 Réseaux n° 212/2018 des objets (Dodier, 1997). En prolongeant la manière dont Gilbert Simondon (1989) a repensé le « mode d’existence » des objets techniques, Nicolas Dodier (1995) a montré comment les machines, dont les scripts prévoient à la fois marge de manœuvre et transgressions, ne sont jamais complètement ajustées ni finies. En s’appuyant sur la notion de « réseau socio-technique » forgée par Michel Callon et Bruno Latour (voir Callon, 2006), il a proposé celle de « solidarité technique » pour désigner la capacité des objets tech- niques à créer des liens entre des personnes selon des chaînes de dépendance réciproque. Quels types d’interactions se nouent entre les humains et les êtres artificiels intelligents ? Comment la sociologie peut-elle étudier ces interactions ? Doivent-elles être appréhendées comme un simple simulacre d’interactions humaines ? Peuvent-elles être considérées comme le lieu où s’établissent des relations ? Cet article entend faire un état des lieux sur les travaux mobilisables en sciences sociales et proposer une orientation nouvelle pour construire cet objet de recherche. Dans une première partie, on montre comment il est possible de s’appuyer sur plusieurs travaux qui remettent en cause une approche dualiste en termes de grand partage pour constituer l’ontologie non plus comme une visée, mais comme un objet. Ce qui amène, concernant les êtres techniques, à la pro- position formulée originellement par Steve Woolgar (1985) de se défaire de l’objectif de distinguer l’homme et la machine. Dans une deuxième partie, on rend compte des enquêtes existantes en anthro- pologie de la robotique sur les opérations de détermination ontologique des êtres artificiels. Ces travaux s’intéressent à l’anthropomorphisation des machines, c’est-à-dire à la transplantation de traits que nous attribuons spon- tanément aux êtres humains dans des machines (apparence, mouvements, intentionnalité, réactivité, formes d’expressivité). Ils montrent comment cette anthropomorphisation entraîne une modification de la notion de personne (Vidal et Gaussier, 2016) et s’attachent à décrire la manière dont les concep- teurs et les usagers travaillent le périmètre de cette notion. Cette littérature nous permet, dans une troisième partie, de souligner que la question de l’ontologie se pose au moment d’entrer en relation. Les opérations de détermination ontologique des êtres hybrides sont intimement liées avec le souci de trouver des modalités ajustées de cohabitation. On souligne notam- ment l’importance des interactions expérimentales sur le mode du « comme Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 5. Sortir du débat ontologique 211 si » avec les êtres hybrides, ainsi que la manière dont ces interactions nous amènent à développer une certaine créativité relationnelle et sont susceptibles de reconfigurer nos modalités d’attachement. Enfin, on propose d’enrichir ces travaux en prêtant davantage attention à la réflexivité ontologique des acteurs. Dans une perspective de sociologie prag- matique, on entend suivre les enquêtes auxquelles procèdent les acteurs pour qualifier le monde, en s’intéressant notamment à la manière dont ils consti- tuent le social comme un objet d’enquête. Ce qui amène à s’interroger sur les pratiques ordinaires et spécialisées de naturalisation/dénaturalisation du monde social. EN FINIR AVEC LE DUALISME : FAIRE DE L’ONTOLOGIE UN OBJET La remise en cause des grands partages Plusieurs travaux ont remis en cause les divisions entre nature et culture, entre humain et non-humain, entre animé et inanimé, à la fois comme un donné et comme un outil de description du monde social. Donna Haraway (2003) a élaboré de manière pionnière le concept de « naturecultures » pour mettre en lumière la co-constitution, la co-évolution et la co-habitation entre les espèces, pour penser des relations dans lesquelles les partenaires ne pré- existent pas à leur mise en relation, et plus généralement pour souligner le fait que « la chair et le sens, les corps et les mots, les histoires et les mondes » (p. 20) sont indissociablement entremêlés. Donna Haraway nous invite à nous montrer attentifs aux êtres hybrides, en s’appuyant sur les notions d’« onto- logies émergentes » (Verran, 2001) et de « connexion partielle » (Strathern, 1991), de même qu’à accepter d’habiter la contradiction en refusant les formes de dualisme. L’anthropologue Philippe Descola (2005) a également montré que la démarche du « grand partage » entre nature et culture, c’est-à-dire l’institution d’un monde de choses doté d’une factualité intrinsèque et d’un monde humain régi par l’arbitraire du sens, relève d’une ontologie « naturaliste » dont le caractère est à la fois localisé et partiel, d’un point de vue géographique et historique, ou pour le dire autrement qu’elle n’est qu’une ontologie parmi d’autres pos- sibles (totémisme, animisme et analogisme), « qu’une des solutions histori- quement observables pour prendre en charge l’articulation des humains et des non-humains » (Charbonnier, 2013, p. 94). Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 6. 212 Réseaux n° 212/2018 Dans son travail sur les interactions entre les vivants et les morts, et plus pré- cisément sur la manière dont les morts « apostrophent » les vivants, Vinciane Despret (2015) identifie la coexistence possible entre plusieurs ontologies, comme la présence et l’absence, dans notre traitement des êtres probléma- tiques. Elle souligne à partir de son enquête la nécessité de ne pas statuer sur le statut ontologique des êtres impliqués, de faire preuve de tact ontologique, de s’adresser à la situation là où les personnes situent leur expérience : de manière non binaire, jamais sur le registre du tout ou rien, en expérimentant « par le milieu » au sens deleuzien. Ces travaux invitent à passer de l’ontologie comme visée dans une démarche philosophique à l’ontologie comme objet d’étude dans une démarche sociolo- gique ou anthropologique (Holbraad, Pedersen et Viveiros de Castro, 2014). Comment constituer l’ontologie comme un objet ? Plusieurs travaux pro- posent précisément d’étudier les pratiques de détermination ontologique des êtres. Dans son approche fondatrice en STS, Bruno Latour (1991) souligne que la division entre nature et culture, bien que dualité fondamentale dans la pensée moderne, ne doit pas être appréhendée comme une démarcation du monde supposée a priori. À partir de ce constat, il invite à étudier la production de la frontière entre nature et culture, en soulignant l’importance des objets matériels et des institutions dans l’affectation d’un hybride à une catégorie ou une autre. Pour étudier les interactions entre humains et non-humains, Bruno Latour (1988) invite à analyser les opérations de traduction pour « figurer ou défigurer, personnifier ou abstraire, incarner ou désincarner des acteurs » (p. 303). Dans la lignée du travail de Bruno Latour, Sheila Jasanoff (2013) élabore une « grammaire de la co-production » pour travailler sur l’établissement des frontières entre nature et culture. Elle étudie notamment la co-production de la science et du droit, en analysant de manière symétrique ce que la science fait au droit et ce que le droit fait à la science. Cette approche permet de ré-ouvrir les partages stabilisés entre le social – « le monde que nous avons créé » – et le naturel – « le monde dont nous imaginons qu’il existe en dehors de nous » – pour appréhender cette frontière comme se redessinant conti- nuellement (p. 84). Sheila Jasanoff propose d’étudier les liaisons qui existent entre le social et le naturel d’un point de vue cognitif, matériel et normatif, en prenant la division comme un point d’arrivée plutôt que comme un point de départ. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 7. Sortir du débat ontologique 213 L’anthropologue américaine rejoint la proposition de Catherine Rémy et Myriam Winance (2010) qui, à partir de leurs travaux respectifs sur les rela- tions entre les humains et les animaux et les rapports entre technologie et handicap, invitent à développer une sociologie des « frontières d’humanité » en considérant que la commune humanité constitue un point d’arrivée, un état à réaliser en pratiques et en situation. Dans cette perspective, le carac- tère humain constitue un accomplissement continu, qui est fait et défait loca- lement, tout comme le genre chez Harold Garfinkel dans son étude du cas Agnès (2007). Se défaire de l’objectif de distinguer l’homme et la machine Concernant l’étude de l’intelligence artificielle, Francis Chateauraynaud se situe dans ce sillage lorsqu’il remet en cause l’unicité même de la machine, son existence en tant qu’entité cohérente. À propos de Marlowe, « sociologue électronique » (2012) conçu dans le prolongement du logiciel d’analyse tex- tuelle des controverses Prospero, il souligne que « comme dans la plupart des systèmes “intelligents”, il n’y a pas un Sujet, un centre de décision unique, une “personnalité”, mais une foule de petits agents opérant à des niveaux divers. […] Le “Moi” de Marlowe et un Moi multiple » (2003). Mais cette piste de recherche est véritablement ouverte à l’origine par Steve Woolgar (1985). Dans un article programmatique, ce dernier souligne l’im- portance de se défaire de l’objectif de distinguer l’homme et la machine. Cette approche qui consiste à différencier les capacités des machines intelligentes et des êtres humains, pour insister sur les limites des machines, est par exemple adoptée par Hubert Dreyfus (1984). Le philosophe se donne comme objec- tif de montrer pourquoi l’intelligence artificielle n’égalera jamais l’intelli- gence humaine, compétence pratique « intimement liée au fait qu’ils [les êtres humains] sont dotés de corps, toujours situés, qu’ils sont socialisés dans une culture donnée, et qu’ils sont capables ainsi de saisir un contexte global, de s’y situer et de lui donner sens » (Velkovska et Beaudoin, 2014, p. 105). Cette approche est également adoptée par certains travaux en STS. Harry Collins (2000) s’intéresse ainsi aux « capacités des ordinateurs et leurs limites ». Il part du présupposé que « les ordinateurs, comme les autres machines, diffèrent des êtres humains », première phrase de son article (p. 21). Il met notamment en avant le fait que les êtres humains partagent une qualité fondamentale dont ne disposent pas les machines : la « socialité » Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 8. 214 Réseaux n° 212/2018 (socialness), c’est-à-dire la capacité d’acquérir des habiletés pour lesquelles nous ne pouvons pas formuler de règles, et d’en user de façon créative. Au contraire, Steve Woolgar (1985) propose de s’éloigner de cette perspective de recherche qui consiste à « développer une sociologie du même phénomène que celui que l’intelligence artificielle prend comme sujet d’étude » (p. 566). Il souligne les limites méthodologiques du postulat qui fonde cette approche, à savoir la possibilité de distinguer signes superficiels et réalité sous-jacente, à l’appui par exemple de la distinction entre action et comportement chez Harry Collins (2000). En effet, ce postulat invalide la démarche même d’observa- tion en sciences sociales. Steve Woolgar invite finalement à prendre comme objet les distinctions qui caractérisent et soutiennent le discours sur l’intelli- gence artificielle plutôt que de prendre position dans les dichotomies qui sont mobilisées par les acteurs. ENQUÊTER SUR LES OPÉRATIONS DE DÉTERMINATION ONTOLOGIQUE : AUTOUR DE L’ANTHROPOMORPHISATION DES ÊTRES ARTIFICIELS La remise en cause du piège anthropomorphique Plusieurs travaux de sociologie des sciences et des techniques se sont inté- ressés aux représentations des utilisateurs qui étaient mobilisées dans la conception des objets, notamment à travers la notion de « script » élaborée par Madeleine Akrich (1987). Le « script » désigne un scénario qui se veut prédétermination des mises en scène que les utilisateurs sont appelés à ima- giner à partir du dispositif technique. Cette perspective amène à soulever la question : quels types de scripts voyons-nous actuellement embarqués dans la conception des machines anthropomorphisées ? Les travaux de Lucy Suchman (2004) soulignent une tendance chez les robo- ticiens à occulter leur contribution non seulement à la conception des robots, mais également à leur fonctionnement : les interventions des roboticiens et les dispositifs périphériques qui contredisent l’idée d’une autonomie du robot seraient laissés « hors cadre ». Dans la continuité de ces observations, le jour- naliste Nicolas Santolaria (2016) présente la conception de Siri comme par- tie prenante d’une « vaste entreprise de persuasion animiste » (p. 141) initiée par Steve Jobs, dans laquelle entre également la création de Pixar, spécialisée dans la prosopopée. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 9. Sortir du débat ontologique 215 Néanmoins, plusieurs travaux anthropologiques récents ont permis de remettre en question la volonté chez les concepteurs de tendre un « piège anthropomorphique » (Vidal, 2012), c’est-à-dire de favoriser chez les usagers la confusion entre humain et non-humain. Ces travaux s’appuient très souvent sur l’œuvre pionnière du roboticien Masahiro Mori qui a formulé une hypothèse de travail en forgeant le concept de « vallée de l’étrange (uncanny valley) », inspiré des travaux de Sigmund Freud sur la notion d’« inquiétante étrangeté » (1919)2 . Cette hypothèse s’ap- puie sur la comparaison d’artefacts très hétérogènes d’un point de vue culturel et technologique : robot-outil, marionnette de bunraku (théâtre japonais), ani- mal empaillé, robot humanoïde, ou encore main prothétique. Masahiro Mori étudie le degré de familiarité qui transparaît dans les réactions des indivi- dus face à ces entités et s’interroge sur la manière dont un robot doit être conçu pour être accepté par les humains. Son idée est que seuls les robots qui reproduisent certaines caractéristiques humaines sont en mesure de susciter la familiarité. Jusqu’à un certain point : s’ils imitent trop fidèlement l’humain, les robots provoquent un sentiment d’étrangeté. La multiplication des traits anthropomorphiques facilite donc les interactions, mais un trop grand réa- lisme génère le malaise face à un objet perçu comme monstrueux. Ces travaux montrent que les frontières du robotisable et de l’artificialisable font l’objet d’une réflexion entre professionnels, d’une controverse au sein des champs de la robotique et de la création artificielle, et plus largement d’un débat social. Il existe des discussions sur l’émergence des « effets de personne » en création artificielle, l’« effet de personne » étant défini comme le sentiment d’être face à une entité dotée d’intentions (Vidal, 2016). Par ail- leurs, si tous les roboticiens partagent l’évidence d’un futur partagé avec les robots, il existe de nombreuses divergences entre eux « sur la pertinence, la faisabilité ou la désirabilité des robots “sociaux” » (Grimaud et Vidal, 2012). Enfin, on observe un débat politique sur l’extension de la catégorie de per- sonne à des non-humains (animaux ou robots), autour de la question de l’attri- bution de droits ou encore du transhumanisme (Dufrêne et al., 2016). 2. L’article original de Masahiro Mori, intitulé « Bukimi no tani », est paru en 1970. On doit au roboticien Karl MacDorman la première traduction en anglais de ce texte à l’occasion d’un colloque de robotique en 2005. Ce texte a également été traduit en français par les anthropolo- gues Emmanuel Grimaud et Denis Vidal dans un dossier consacré aux « Robots étrangement humains » publié en 2012 dans la revue Gradhiva. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 10. 216 Réseaux n° 212/2018 Nicolas Santolaria (2016) insiste sur le fait que Siri n’est accompagné d’aucun mode d’emploi, ce qui fait de l’assistant vocal « non pas un produit achevé, mais une potentialité évolutive » (p. 101), ce qui « nous invite à dépasser une vision fonctionnaliste appauvrie de la technologie » et nous met « dans la peau d’un Geppetto avec sa créature » (p. 104) au moment d’en explorer les potentialités. Le journaliste identifie deux modalités importantes visant à pro- duire le sentiment d’être en présence d’une volonté qui n’entre pas en concur- rence ontologique avec l’usager humain : l’erreur et l’humour. Ces deux traits permettent le « paradoxe absolu où, au travers d’une forme d’expression typi- quement humaine, l’objet tout à la fois rappelle et invalide de lui-même son statut de machine » (p. 129). Emmanuel Grimaud (2012) étudie quant à lui le cas de Paro, premier robot thérapeutique créé par l’ingénieur japonais Takanori Shibata en 1993 dans une perspective d’« animal therapy ». Prenant la forme d’un bébé phoque en peluche, Paro est conçu pour « calmer les fous, atténuer la solitude des vieux, apaiser les femmes enceintes ou accompagner les enfants handica- pés » (Grimaud, 2012). Par l’apprentissage et la communication sensorielle, ce robot vise à initier une relation tout autre que la traditionnelle relation de commande : « je te mets en marche et tu obéis ». Cependant, l’ambition n’est pas de reproduire à l’identique la relation qu’on peut nouer avec un animal de compagnie. L’anthropologue identifie plutôt une opération d’« hétéromor- phose » qui « consiste moins à passer à la moulinette de l’échelle humaine qu’à calibrer ses inventions aussi finement que possible pour que celles-ci viennent combler les trous de nos ontologies existantes ». En l’occurrence, il s’agit de concevoir un animal de compagnie qui ne meurt pas et n’impose pas les mêmes contraintes d’entretien qu’un animal vivant. De manière similaire, Agnès Giard (2016) étudie la fabrique des « love dolls » au Japon. Elle insiste sur le fait que les concepteurs ne visent pas tant à imaginer des poupées qui se substitueraient à des compagnes, mais à produire un « simulacre d’être incomplet », un « espace qui invite l’humain à le remplir ». L’anthropologue observe que dans les magazines dédiés à ces love dolls, « aucune ligne de démarcation ne semble posée entre la poupée comme personne et la poupée comme chose ». Les deux ordres de descrip- tion sont entremêlés : des photographies avec des mises en scène érotiques très réalistes coexistent avec des photographies techniques assorties d’astuces d’entretien. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 11. Sortir du débat ontologique 217 La mise en lumière de pactes anthropomorphiques Si les concepteurs ne sont pas motivés par la volonté systématique de favo- riser la confusion entre humain et non-humain, les usagers ne se laissent pas non plus attirer par ce piège anthropomorphique. Dès la fin des années 1980, plusieurs travaux de sociologie des sciences et des techniques critiquent la notion de « projection anthropomorphique ». Bruno Latour (1988) s’insurge contre la tendance moralisatrice des sociologues à considérer des com- portements comme le fait de parler à son ordinateur comme « une entrave scandaleuse aux frontières naturelles », comme une simple « projection d’un comportement humain sur un objet technique, froid et non humain » (p. 303). De manière similaire, après avoir souligné que « les repères de l’engagement de l’objet seront aisément traités non simplement comme des retours d’informations manifestant l’exécution d’une commande, mais comme des expressions d’émotions », Laurent Thévenot (1994) met en garde contre la tentation d’y trouver « les fondements pragmatiques d’une attitude qui pourrait être vue comme projection irrationnelle anthropomorphique ou animiste » (p. 88). Dans la continuité de ces travaux, plusieurs recherches anthropologiques mettent en lumière des logiques de « pacte anthropomorphique » établies entre les usagers et les êtres artificiels. Cette notion est proposée par Denis Vidal (2012) pour décrire les interactions fondées sur l’apparence anthropo- morphique sans postuler que ceux qui interagissent succombent à une forme d’illusion cognitive. L’anthropologue a d’abord travaillé sur le rapport des visiteurs aux statues en cire du musée Grévin. Puis il a étudié les interactions avec Nao, robot humanoïde crée en 2006 par la société Aldebaran, dans le cadre de la conception du robot assistant Roméo. La notion de « pacte anthropomorphique » s’appuie sur la remise en cause de l’anthropomorphisme comme trait caractéristique de la petite enfance ou encore des cultures « primitives ». Cette hypothèse a par exemple été déve- loppée par Jean Piaget qui a affirmé qu’il existe un stade spécifique de déve- loppement psycho-cognitif des enfants, censé durer jusque l’âge de 4 ou 5 ans, au cours duquel ces derniers présentent une incapacité à faire la distinc- tion entre les êtres animés et inanimés ainsi qu’une tendance significative à la pensée animiste, c’est-à-dire au fait de prêter des caractéristiques humaines (intentions, sentiments, humeurs et conscience) à leur environnement (objets et événements). À partir des années 1980, plusieurs travaux, et notamment Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 12. 218 Réseaux n° 212/2018 ceux de Stewart Guthrie (1993), ont remis en cause cette idée de l’anthro- pomorphisme « comme ontologie spontanée et intuitive » (Vidal, 2012) qui témoignerait d’un état d’immaturité cognitive. Ces travaux permettent de souligner plusieurs caractéristiques des opérations d’imputation d’humanité à des objets : leur réversibilité, leur gradation et leur ambivalence. Premièrement, l’imputation d’humanité est réversible : elle n’est pas faite une fois pour toutes, elle peut être faite puis défaite de manière dynamique dans l’interaction. Dans les interactions avec Nao observées par Denis Vidal (2012), deux manières de concevoir le robot et d’en parler s’entremêlent : le robot comme artefact (espèce : machine – sous-espèce : robot) et le robot comme personne (espèce : personne – sous-espèce : robot). Emmanuel Grimaud (2012) observe également des opérations de promotion et de rétro- gradation ontologique de l’objet qui semblent cycliques dans le cas des interactions avec des robots humanoïdes confusion initiale du robot avec l’humain, séparation de l’humain et du robot, confusions accidentelles. Selon lui, la « flexibilité d’usage » fait « qu’un robot peut être tantôt relégué au sta- tut de dispositif de commande désincarné, tantôt assimilé à de l’humain sur le mode du “comme si” ». Deuxièmement, l’imputation d’humanité ne fonctionne pas tant selon l’oppo- sition binaire entre humain et non-humain que selon un continuum permettant des opérations de « gradation ontologique » (Grimaud, 2012) et des qualifica- tions en termes de « quasi-humain » par exemple. Troisièmement, l’imputation d’humanité peut être ambivalente : on peut considérer un objet comme étant à la fois humain et non-humain, une pré- sence comme étant là et pas là, une interaction comme étant réelle et non réelle. Emmanuel Grimaud (2012) rappelle qu’un grand nombre d’attache- ments noués par les humains avec les choses se développent « en autorisant l’ambiguïté, le flou ou une certaine flexibilité qui permet de ne pas trancher une fois pour toutes sur leur identité ». Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 13. Sortir du débat ontologique 219 L’ONTOLOGIE DES ÊTRES : UNE QUESTION QUI SE POSE AU MOMENT D’ENTRER EN RELATION Le mode du « comme si » Les travaux anthropologiques précédemment cités mettent en lumière une modalité structurante d’interactions entre les humains et les êtres artificiels : le mode du « comme si ». On fait comme si ce robot, cette statue de cire, cette poupée était un être humain. Agnès Giard (2016) souligne par exemple qu’il ne faut pas penser la love doll uniquement « comme un objet-compensation […], mais également comme un objet-simulation destiné à ceux qu’attire le “jeu du faire semblant” ». Cette modalité d’interactions comporte d’abord une dimension « ludique » (Grimaud, 2012). Ainsi Denis Vidal (2012) appréhende-t-il la mise en scène de la confusion entre humains et figures de cire ou robots au prisme de la « capacité à jouer de manière impromptue de l’ambiguïté » plutôt qu’au regard de la simple opposition entre « résister à l’illusion » et « être dupé ». Le mode du « comme si » relève également de la nécessité pragmatique. L’anthropomorphisme peut être considéré comme un « embrayeur » de « formes plurielles d’intentions et d’agentivité » (Despret, 2016, p. 37). Loin de s’apparenter à une confusion entre humain et non-humain, l’anthro- pomorphisme relève dans cette perspective de l’hypothèse interactionnelle. L’« extension aux non-humains des modalités interactionnelles propres au dialogue entre humains » (Airenti, 2012) est considérée comme un pré-requis pour initier la relation. Cette analyse rejoint les observations de l’équipe de psychologues constituée autour de Clifford Nass à l’origine du paradigme CASA (« computers are social actors »). Ce paradigme indique que les individus adoptent des compor- tements sociaux avec les technologies, même lorsque de tels comportements ne coïncident pas avec ce qu’ils pensent des machines (Nass et Moon, 2000). Cela amène à opérer une distinction « entre un anthropomorphisme repré- sentationnel, risquant toujours d’être assimilé sur le plan épistémologique à une sorte de carcan cognitif, d’un anthropomorphisme interactif, considéré comme un instrument relationnel d’évaluation et d’ajustement aux objets qui nous entourent » (Grimaud et Vidal, 2012). Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 14. 220 Réseaux n° 212/2018 Les « effets de personne » produits en situation ne sont donc pas une simple affaire de perception, où l’attribution d’un statut ontologique est jouée à l’avance, mais procèdent plutôt selon une dynamique de recherche d’une rela- tion ajustée, les problèmes d’imputation d’humanité et de cohabitation étant intimement liés. La reconfiguration de nos modalités d’attachement À travers son intérêt croissant pour la dimension émotionnelle ou affective des relations hommes-machines, la création artificielle explore « l’épaisseur relationnelle de la vie en société » (Grimaud et Vidal, 2012). Que ce soit à la frontière entre l’amitié et la fonctionnalité ou encore entre l’amour et le désir, l’apparition de compagnons artificiels instaure des agencements relationnels compliqués et ambigus. Plusieurs travaux ouvrent des pistes pour appréhen- der la dimension affective des usages de ces technologies et l’« attachement aux cyber-choses » (Abbou et Giard, 2017). La conception du programme informatique Eliza est l’un des premiers lieux où la possible complicité entre un artefact relationnel et un être humain a été constatée. Entre 1964 et 1966, Joseph Weizenbaum a mis au point un agent conversationnel capable de simuler une capacité d’écoute à la manière d’un psychothérapeute (notamment par la formulation de relances). L’ingénieur a alors constaté ce qui sera par la suite appelé l’« effet Eliza » : sans se méprendre sur le statut d’Eliza, ses étudiants éprouvent une grande avidité à interagir avec le programme et une tendance à vouloir combler ses manque- ments. Depuis, plusieurs chercheurs se sont attachés à mesurer les sentiments suscités par les créatures artificielles. Cory Kidd (2008) entend par exemple montrer dans sa thèse comment les robots, par leur présence physique capti- vante, suscitent des sentiments plus intenses que les agents en ligne. Des travaux anthropologiques, très contrastés dans leur posture, soulignent que la création artificielle produit des hybrides qui reconfigurent nos capaci- tés d’attachement. Ce terme d’attachement est privilégié, car il est « suffisant vague pour permettre tous les degrés d’intensité, englobant aussi bien les rela- tions les plus utilitaires aux objets, l’amitié ou l’amour de son prochain que les dépendances plus ambiguës ou difficiles à qualifier comme celles que l’on peut entretenir avec un ordinateur ou un animal de compagnie » (Grimaud, 2012). Dans la sociologie du goût élaborée par Antoine Hennion (2004), cette notion d’attachement permet également de se défaire de l’alternative entre Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 15. Sortir du débat ontologique 221 l’idée que « l’objet contient ses effets » (p. 11) et l’idée que « les objets sont ce que nous en faisons » (p. 10) pour introduire la notion de « médiation », c’est-à-dire les « moyens qu’on se donne pour saisir l’objet » (p. 12). L’anthropologue américaine Sherry Turkle (2015) s’est intéressée à nos modalités d’engagement avec les machines conçues « pour être avec nous » (p. 47). Elle a étudié les premières rencontres et les relations tissées sur un temps court entre des personnes à différents moments de leur cycle de vie (enfance, âge adulte, vieillesse) et des dispositifs variés (Tamagotchi, Furby, Aibo, Paro, My real baby, Cog, Kismet, Domo, etc.). Selon Sherry Turkle, on assisterait à l’émergence d’une « sensibilité bionique » (p. 72) avec l’arri- vée de robots compagnons. Nos interactions avec les machines changeraient de nature : « la psychologie de la projection fait place à une psychologie de l’engagement » (p. 75) ; « on passe du simple test Rorschach à une véritable relation » (p. 159). L’anthropologue identifie deux ressorts de cette évolution : premièrement, les robots sociaux nous invitent à prendre soin d’eux et « nous aimons ce dont nous prenons soin » (p. 64). Deuxièmement, ils s’adaptent à l’usager et développent une personnalité au fil des usages3 . Ces deux ressorts sont par ailleurs inscrits dans un contexte plus général caractérisé par un détourne- ment vis-à-vis des « mécanismes intérieurs » et un intérêt grandissant pour les « mécanismes du comportement » (p. 93). Sherry Turkle défend l’idée que les robots sociaux nous invitent à nous attacher à eux et que ces attache- ments modifient notre façon d’être au monde. De manière très pessimiste, elle met en avant un risque d’appauvrissement des relations humaines, de « relâchement moral » (p. 204) qui se traduirait par une diminution de nos attentes à l’égard des relations humaines. La solitude dans la co-présence avec le robot, cet « amour à sens unique » (p. 215), changerait progressive- ment de statut : de substituable et choisi par défaut, le robot deviendrait égal voir préférable à une personne. 3. Ce qui n’est pas sans rappeler la condition d’une temporalité longue pour entrer dans le « traitement en personnalité des choses » au sens de Laurent Thévenot (1994), c’est-à-dire dans la possibilité pour une chose de maintenir une personne, de devenir le support de l’assi- gnation d’une personnalité. De manière plus générale, la personnalisation des objets renvoie également à la théorie du « soi étendu », développée dans une approche marketing par Russell Belk (1988) et selon laquelle des objets peuvent devenir parties prenantes de l’identité indi- viduelle. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 16. 222 Réseaux n° 212/2018 Certains travaux portent enfin plus précisément sur le cas des robots éro- tiques. Aux antipodes du pessimisme de Sherry Turkle, David Levy (2007) a affirmé de manière enthousiaste dans sa thèse de doctorat qu’il serait bientôt possible, et même courant, d’entretenir avec eux de fortes relations de dépen- dance affective. De manière plus nuancée, Emmanuel Grimaud (2012) fait l’hypothèse que les relations entre les humains et les robots sont davantage susceptibles d’être le lieu d’une tension entre attachement et détachement. Selon l’anthropologue, on s’empare des capacités sensorielles des robots érotiques non seulement pour les confondre avec de l’existant, mais également pour « dépassionner certains objets, désincarner certains liens, et graduer toujours plus les rela- tions qui les entourent ». Les progrès de la robotique nourriraient donc des pratiques de gradation des attachements. Plus généralement, nos interactions avec des agents artificiels nous inviteraient à explorer de « nouvelles gammes de relations » (Grimaud, 2012), à développer notre créativité relationnelle. SUIVRE LES ACTEURS DANS LEURS ENQUÊTES : VERS UNE SOCIOLOGIE DE LA RÉFLEXIVITÉ ONTOLOGIQUE Souligner la réflexivité des acteurs Dans les travaux existants sur les interactions avec des êtres artificiels, la réflexivité des acteurs est parfois évoquée, mais jamais traitée de manière systématique, ni constituée comme un objet de recherche en tant que tel. Le mode du « comme si » revêt par exemple une dimension expérimentale : il fait de l’expérience une énigme (Despret, 2016). Il nous met dans la situation d’enquêter sur la consistance des effets émergents de personne dans nos inte- ractions avec les objets (Dufrêne et al., 2016). À cet égard, Sherry Turkle (2015) souligne dans ses observations des pre- mières rencontres avec des robots sociaux que les usagers tentent de déter- miner la nature de l’objet auquel ils sont confrontés. De la même manière, Nicolas Santolaria (2016) décrit Siri comme une invitation à une « réévalua- tion de nos certitudes anthropologiques » qui suscite une « perplexité onto- logique émergente » (p. 14), ou encore comme un « étalon anthropologique puissant », un « objet-test » (p. 116). Ces constats renvoient à la dimension morale de l’activité technique soulignée par Nicolas Dodier (1995) dans son ethnographie d’une entreprise industrielle à Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 17. Sortir du débat ontologique 223 travers la notion d’« épreuve de soi ». Considérée comme un élément essentiel de l’activité des opérateurs, elle est mise en lumière grâce à une appréhension des relations avec les machines non seulement sur le registre du travail, mais également de l’action, c’est-à-dire comme une forme d’accomplissement de soi dans un espace public de jugement au sens de Hannah Arendt (Barthe, 1997). En mettant en avant l’indétermination des relations entre robots et humains, les travaux anthropologiques existants indiquent également une certaine réflexivité émotionnelle chez les acteurs, sans toutefois soulever véritable- ment cette question. Ils notent que les progrès de la robotique consistent de plus en plus à « faire voisiner les humains avec des agents au statut flou, incertain, avec lesquels les modalités de coexistence ne sont jamais acquises d’avance » (Grimaud et Vidal, 2012). D’un point de vue émotionnel, les situations d’interactions avec des agents artificiels sont susceptibles de générer des formes d’incertitude, voire de malaise explorées par la sociologie des émotions (Hochschild, 2003) : on ne sait plus quoi ressentir. Elles sont également susceptibles de nourrir des méta- émotions, des émotions sur les émotions, dont l’importance est soulignée par Eva Illouz (2016). Il est fort possible que ces interactions, à l’instar des interactions avec les animaux domestiques, puissent générer une forte réflexivité, une interrogation sur la nature de la relation émergente, plutôt qu’un seul « narcissisme canino- phile » dans lequel le non-humain est utilisé comme un outil de restauration de l’âme humaine par un amour inconditionnel (Haraway, 2003). Les travaux existants pourraient ainsi être enrichis par une approche de socio- logie pragmatique « qui rend justice à la réflexivité des acteurs » (Barthe et al., 2013, p. 187), quelles que soient l’intensité de cette réflexivité et la manière dont elle s’actualise (verbalisation, action sur l’action). Cette approche consiste à suivre les acteurs dans le travail d’enquête – au sens du recueil de données pour nourrir un questionnement – qu’ils sont amenés à produire quand ils sont confrontés à des situations problématiques (ou épreuves) dans lesquelles ce qui se joue n’est pas évident. Dans son élaboration d’une sociologie des attachements, Antoine Hennion (2004) souligne par exemple l’importance de la réflexivité des personnes dans leurs rapports avec les objets. Ce dernier analyse le goût comme une « moda- lité problématique d’attachement au monde » (p. 9). Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 18. 224 Réseaux n° 212/2018 On peut faire l’hypothèse que les relations avec des êtres artificiels sont le lieu du déploiement par les acteurs d’une modalité d’enquête ontologique spéci- fique, caractérisée par une forte dimension exploratoire, au sens de l’expéri- mentation des possibles. Le social comme objet d’enquête pour les acteurs Plusieurs travaux s’attachent à saisir la réflexivité ontologique des acteurs, à rendre compte des enquêtes auxquelles ces derniers procèdent pour qualifier le monde, pour dire l’état des choses et des êtres. À partir de sa lecture des travaux d’Edouardo Viveiros de Castro, Pierre Charbonnier (2010) propose une redéfinition de la démarche anthropologique comme enquête sur « les conditions d’autodétermination ontologique des collectifs étudiés » (p. 7), en soulignant que toute société dispose de pratiques propres pour s’objectiver, pour déterminer ce qu’elle est. Dans le prolongement des travaux de Philippe Descola, le philosophe reprend la question des relations entre nature et société à partir du savoir anthropologique. Il montre comment « l’inscription collec- tive dans la nature est saisie par les groupes humains comme un problème dont ils doivent s’acquitter pour exister comme tels » (Charbonnier, 2015, p. 141). Dans une recherche antérieure sur le travail ordinaire de la pédopsychiatrie (Borelle, 2017), on s’est également intéressé aux situations de « tension onto- logique » dans lesquelles les acteurs s’interrogent sur la nature des problèmes auxquels ils sont confrontés au cas par cas. On a montré comment les profes- sionnels produisent un dualisme entre social et psychiatrique, dualisme égale- ment au fondement d’un grand nombre de travaux de sciences sociales. On voit comment cette approche permet d’éclairer le social – ou le « collec- tif » au sens de Bruno Latour pour éviter toute forme de dualisme – comme un objet d’enquête pour les acteurs. Ce constat ouvre plusieurs pistes de ques- tionnement. Il invite d’abord à enquêter sur les « sens du social », non plus pour la philosophie ou la sociologie (Cukier et Gaudin, 2017), mais pour les acteurs eux-mêmes : qu’est-ce que le social signifie pour eux ? Comment le social fait-il l’objet à la fois de catégorisations ordinaires et de savoirs spé- cialisés ? Comment, par exemple, l’interaction sociale est-elle modélisée en affective computing ? Il serait intéressant d’étudier la littérature existante dans ce domaine pour préciser la manière dont le social semble pensé en termes de signal. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 19. Sortir du débat ontologique 225 Ce constat invite également à s’intéresser aux pratiques ordinaires d’établis- sement de la socialité, dans le prolongement de l’ethnométhodologie, mais en ajoutant une couche de réflexivité supplémentaire aux ethnométhodes : selon quelles modalités pratiques les acteurs s’établissent-ils comme des êtres explicitement sociaux ? Comment les acteurs élaborent-ils certains aspects de leur existence comme relevant du social ou non ? On pourrait par exemple enquêter auprès de concepteurs d’agents intelligents pour comprendre com- ment ils modélisent les comportements des utilisateurs à partir des neuros- ciences : dans quelle mesure la référence à cette discipline s’inscrit-elle dans une forme de dualisme entre cérébral et social ? Ce constat invite enfin à s’interroger sur les frontières du social : comment le périmètre de la société est-il produit en pratiques et en situations ? Une piste d’enquête possible serait de s’intéresser, dans une perspective d’ana- lyse des controverses, à la problématisation publique du statut des créatures artificielles à l’occasion d’une affaire récente, comme celle de l’ouverture de « X-Dolls » qui se définit comme la « première maison close 2.0 à Paris ». Plus généralement, ces questions sont autant de manières de mener l’enquête sur la dénaturalisation du monde social, non pas en tant qu’elle est une opé- ration nécessaire dans toute démarche de sciences sociales (Lemieux, 2012), mais en tant qu’elle est une opération maniée par les acteurs eux-mêmes, dans des contextes variés, selon des formes spécialisées ou ordinaires. On fait l’hypothèse que l’introduction d’êtres hybrides constitue un point d’observation privilégié de cette réflexivité sur le social, voire que les interac- tions entre humains et êtres artificiels favorisent cette réflexivité sur le sens du social, sur la socialité et sur les frontières de la société. UNE INVITATION À LA CRÉATIVITÉ MÉTHODOLOGIQUE ? On tente actuellement une première actualisation de ce programme de recherche en enquêtant sur le recours à des robots sociaux (Nao, Leka et Reeti) dans l’accompagnement d’enfants qui présentent un TSA (trouble du spectre autistique) au sein de différentes structures (instituts médico-éducatifs et hôpitaux de jour). Le début de cette enquête (entretiens menés avec les professionnels et obser- vation des séances de formation à l’utilisation du robot Leka) suggère que les Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 20. 226 Réseaux n° 212/2018 professionnels tentent de bricoler de manière réflexive un statut ajusté pour le robot. Différents paradigmes d’usage sont élaborés : le robot peut être éta- bli comme un interlocuteur pour l’enfant, comme un médiateur entre l’enfant et le professionnel, ou encore comme une extension de l’enfant. Les profes- sionnels s’interrogent sur la façon de l’introduire auprès des enfants : faut-il présenter le robot et comment ? Doit-il être découvert déjà allumé ou bien sorti de sa boîte publiquement ? Les professionnels enquêtent sur les interac- tions qui s’établissent entre les enfants et le robot. Par exemple, ils observent comment les enfants orientent leur attention quand ils sont mis en présence du robot. Cette recherche suggère qu’une démarche ethnographique attentive aux moments où les acteurs expriment des désaccords et des hésitations peut apporter un éclairage précieux sur les processus de qualification ontologique. Ce terrain d’enquête présente un triple avantage pour saisir empiriquement la réflexivité. Des acteurs s’emparent d’une technologie de manière expéri- mentale, pour voir ce qu’ils peuvent en faire. Ils sont amenés à se positionner les uns par rapport aux autres au sein de collectifs. Ils constituent les inte- ractions entre humains et robots comme un objet d’observation et d’analyse. On est donc face à des acteurs qui exercent une réflexivité à la fois forte et ­verbalisée. Néanmoins, la verbalisation n’est pas nécessaire pour saisir empiriquement la réflexivité des acteurs. En l’appréhendant comme une action plutôt que comme un processus intérieur, on considère que la réflexivité peut être saisie par l’observation et le récit d’anecdotes. Quand elle s’exprime à un degré moindre et se manifeste de manière plus discrète, on peut également envisa- ger d’adopter une démarche vidéo-ethnographique. L’approche ethnographique offre donc des outils de travail féconds pour notre programme. On peut tout de même s’interroger sur l’opportunité de déployer des formes d’expérimentation méthodologique pour saisir des pratiques plus intimes. Vinciane Despret s’engage par exemple sur cette voie en explorant des possibilités contrastées. Pour enquêter sur la réflexivité des scientifiques avec François Thoreau (2014), elle a mis au point un dispositif d’enquête qui relève de l’incident « diplomatique » au sens de Bruno Latour (2012). Ce dispositif consiste à offrir aux interviewés une déclaration de guerre assortie d’une offre de paix. Pour saisir les sens de la réflexivité auxquels tiennent les scientifiques, et pour éviter la tentation des sciences sociales de confisquer les Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 21. Sortir du débat ontologique 227 usages de cette notion, il s’agit de renvoyer la question « c’est quoi la réflexi- vité ? » aux enquêtés en affirmant que les sociologues n’ont peut-être pas tort de penser qu’ils ne savent pas. À l’opposé de cette démarche d’enquête par provocation, Vinciane Despret s’est également engagée dans un « parcours instruit » entre septembre 2007 et septembre 2008 pour saisir « l’inventivité des morts et des vivants dans leurs relations » (2015, p. 35). Elle s’est lais- sée saisir, instruire et conduire par les acteurs selon différentes modalités : en écoutant leurs récits, en déambulant dans les liens et les mises en rapport qu’ils opéraient, mais surtout en se posant la contrainte de consigner et de suivre les conseils qui lui étaient faits – « tu devrais lire…, tu devrais voir…, tu devrais aller… » (p. 36)4 . Pour conclure, la diffusion croissante d’êtres artificiels intelligents dans divers domaines de la vie sociale pose problème à la sociologie. Comment appréhender les interactions qui se nouent avec ces agents ? Cet article pro- pose de rendre compte des travaux qui peuvent être mobilisés pour construire cet objet de recherche. Cet état de l’art permet d’abord de souligner l’impor- tance de constituer l’ontologie comme un objet en s’attachant à enquêter sur les opérations de détermination ontologique des êtres. En s’intéressant plus particulièrement aux travaux anthropologiques sur l’anthropomorphisation des créatures artificielles, il permet également de comprendre que ces opé- rations de détermination ontologique sont effectuées en vue de trouver des modalités de coexistence et d’établir des relations ajustées. Cette synthèse des travaux existants permet enfin d’ouvrir de manière programmatique de nou- veaux questionnements. On propose de focaliser l’attention sur la réflexivité ontologique des acteurs, en s’intéressant notamment aux manières dont ils constituent le social comme un objet d’enquête quand ils conçoivent et s’ap- proprient des agents artificiels intelligents. Ce programme de recherche ouvre plusieurs pistes d’enquête, auprès d’acteurs pluriels (concepteurs et usagers) et sur divers terrains (débats publics, littérature spécialisée, pratiques et inte- ractions). Il invite tout autant à mobiliser les outils classiques de la démarche ethnographique (entretiens, observations, enregistrements vidéo, analyse documentaire) qu’à développer une créativité méthodologique en inventant des dispositifs d’enquête originaux. 4. Elle revendique ici une démarche s’inspirant de l’artiste contemporaine Sophie Calle qui recourt à la contrainte pour vivre des expériences dans le cadre de protocoles très formalisés, ce qui a pour conséquence de réintroduire de l’imprévu dans la vie quotidienne (Méaux, 2012). Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 22. 228 Réseaux n° 212/2018 RÉFÉRENCES ABBOU J., GIARD A. (2017), « L’attachement aux cyber-choses : logiciels sen- timentaux, love-bots et séducteurs de synthèse », Colloque, 15-16 juin, Université Paris Nanterre. AIRENTI G. (2012), « Aux origines de l’anthropomorphisme. Intersubjectivité et théorie de l’esprit », Gradhiva [en ligne] vol. 15, n° 1. AKRICH M. (1987), « Comment décrire les objets techniques ? », Techniques et culture, pp. 49-64. AKRICH M. (1993), « Les objets techniques et leurs utilisateurs, de la conception à l’action », in B. Conein, D. Dodier, L. Thévenot, Les objets dans l’action, Paris, Éditions de l’EHESS, pp. 35-57. BARTHE Y. (1997), « Nicolas Dodier, Les Hommes et les Machines [compte rendu] », Genèses, vol. 28, pp. 165-166. BARTHE Y., DE BLIC D., HEURTIN J.-P., LAGNEAU E., LEMIEUX C., LINHARDT D., MOREAU DE BELLAING C., REMY C. et TROM D. (2013), « Sociologie pragmatique : mode d’emploi », Politix, vol. 3, n° 103, pp. 175-204. BELK R. (1988), « Possessions and the Extended Self », Journal of Consumer Research, vol. 15, n° 2, pp. 139-168. BORELLE C. (2017), « “C’est uniquement social”. Sur la production d’un dualisme social/psychiatrique en sciences sociales et dans le travail ordinaire de la psychia- trie », Politix, vol. 30, n° 117, pp. 201-222. CALLON M. (2006), « Sociologie de l’acteur réseau », in M. Akrich, M. Callon, B. Latour, Sociologie de la traduction, textes fondateurs, Paris, Presses des Mines, pp. 267-276. CHARBONNIER P. (2010), « L’Anti-Narcisse de Viveiros de Castro », La Vie des idées, mis en ligne le 15 avril. CHARBONNIER P. (2013) « La nature est-elle un fait social comme les autres ? Les rapports collectifs à l’environnement à la lumière de l’anthropologie », Cahiers philo- sophiques, vol. 1, n° 132, pp. 75-95. CHARBONNIER P. (2015), La Fin d’un grand partage. Nature et société, de Durkheim à Descola, Paris, CNRS. CHATEAURAYNAUD F. (2003) « Alan versus Marlowe. Point de vue sociologique sur l’IA et son avenir », entretien sur le site mauvaisgenres.com. CHATEAURAYNAUD F. (2012), « Une approche informatisée de l’expertise en situation de controverse. Marlowe, un sociologue électronique au cœur des humanités numériques », Experts, n° 100. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 23. Sortir du débat ontologique 229 COLLINS H. (2000), « Les capacités des ordinateurs et leurs limites », Réseaux, vol. 18, n° 100, pp. 19-37. CUKIER A. et GAUDIN O. (2017), Les sens du social, philosophie et sociologie, Rennes, Presses universitaires de Rennes. DESCOLA P. (2005), Par-delà nature et culture, Paris, Gallimard. DESPRET V. (2015), Au bonheur des morts. Récits de ceux qui restent, Paris, La Découverte. DESPRET V. (2016), « “Comme si…” : des récits de présence », Persona. Étrangement humain. Catalogue de l’exposition au Musée du Quai Branly, Paris, Actes Sud, pp. 35-37. DODIER N. (1995), Les hommes et les machines, Paris, Métailié. DODIER N. (1997), « Remarques sur la conscience du collectif dans les réseaux sociotechniques », Sociologie du travail, vol. 39, n° 2, pp. 131-148. DREYFUS H. (1984), Intelligence artificielle : mythe et limites, Paris, Flammarion. DUFRENE T., GRIMAUD E., TAYLOR A.C. et VIDAL D. (2016), « Qui est là ? Présences-limites et effets de personne », Persona. Étrangement humain. Catalogue de l’exposition au Musée du Quai Branly, Paris, Actes Sud, pp. 11-17. FREUD S. (1976) [1919], L’inquiétante étrangeté, Essais de psychanalyse appliquée, Paris, Gallimard. GARFINKEL H. (2007) [1967], « “Passer” ou l’accomplissement du statut sexuel chez une personne “intersexuée”. Première partie », Recherches en ethnométhodolo- gie, Paris, PUF, pp. 203-295. GIARD A. (2016), « La love doll au Japon : jeux imaginaires, incarnation et para- doxes », Interrogations [en ligne], n° 23. GRIMAUD E. (2012), « Androïde cherche humain pour contact électrique. Les ciné- tiques de l’attachement en robotique », Gradhiva [en ligne], vol. 15, n° 1. GRIMAUD E., VIDAL D. (2012), « Aux frontières de l’humain. Pour une anthropo- logie comparée des créatures artificielles », Gradhiva [en ligne], vol. 15, n° 1. GUTHRIE S. (1993), Faces in the Clouds. A New Theory of Religion, New York, Oxford University Press. HARAWAY D. (2003), The companion species manifesto: Dogs, people, and signifi- cant otherness, Chicago, Prickly Paradigm Press. HOLBRAAD M., PEDERSON M., VIVEIROS DE CASTRO E. (2014), « The politics of ontology: Anthropological positions », Cultural Anthropology website [online]. HENNION A. (2004), « Une sociologie des attachements. D’une sociologie de la culture à une pragmatique de l’amateur », Sociétés, vol. 85, n° 3, pp. 9-24. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 24. 230 Réseaux n° 212/2018 HOCHSCHILD A.R. (2003), « Travail émotionnel, règles de sentiments et structure sociale », Travailler, vol. 1, n° 9, pp. 19-49. ILLOUZ E. (2016), « Les émotions, catégorie ancienne et catégorie nouvelle de la sociologie », Congrès de l’AISLF, 4-8 juillet, Montréal. JASANOFF S. (2013), Le droit et la science en action, Paris, Dalloz. KIDD C. (2008), Designing for long-term human-robot interaction and application to weight loss, Thèse de doctorat, Cambridge, MIT. LATOUR B., [JOHNSON J.] (1988), « Mixing humans and non-humans together: The sociology of a door-closed », The Sociology of Science and Technology, vol. 35, n° 3, pp. 298-310. LATOUR B. (1991), Nous n’avons jamais été modernes. Essai d’anthropologie symétrique, Paris, La Découverte. LATOUR B. (1994), « Une sociologie sans objet ? Remarques sur l’interobjectivité », Sociologie du travail, vol. 36, n° 4, pp. 587-607. LATOUR B. (2012), Enquête sur les modes d’existence. Une anthropologie des Modernes, Paris, La Découverte. LEMIEUX C. (2012), « Peut-on ne pas être constructiviste ? », Politix, vol. 4, n° 100, pp. 169-187. LEVY D. (2007), Love and sex with robots. The evolution of human-robot relation- ships, New York, HarperCollins. MEAUX D. (2012), « Les effets escomptés de la contrainte chez Sophie Calle », Nouvelle revue d’esthétique, vol. 1, n° 9, pp. 79-90. NASS C., MOON Y. (2000), « Machines and mindlessness: Social responses to com- puters », Journal of Social Issues, vol. 56, n° 1, pp. 81-103. PICARD R. (1995), « Affective computing », M.I.T Media Lab (Perceptual compu- ting section) [online], Technical report, n° 321. REMY C., WINANCE M. (2010), « Pour une sociologie des “frontières d’huma- nité”», Politix, vol. 2, n° 90, pp. 9-19. SANTOLARIA N. (2016) ? « Dis Siri ». Enquête sur le génie à l’intérieur du smart- phone, Paris, Anamosa. STRATHERN M. (1991), Partial connections, Savage, Rowman Littlefield Publishers. SIMONDON G. (1989), Du mode d’existence des objets techniques, Paris, Aubier. SUCHMAN L. (2004), « Figuring personhood in sciences of the artificial », Depart­ ment of sociology [online], Lancaster University. THÉVENOT L. (1994), « Le régime de familiarité. Des choses en personne », Genèses, n° 17, pp. 72-101. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte
  • 25. Sortir du débat ontologique 231 THOREAU F., DESPRET V. (2014), « La réflexivité. De la vertu épistémologique aux versions mises en rapports, en passant par les incidents diplomatiques », Revue d’anthropologie des connaissances, vol. 8, n° 2, pp. 391-424. TURKLE S. (2015) [2011], Seuls ensemble. De plus en plus de technologies. De moins en moins de relations humaines, Paris, L’Échappée. VELKOVSKA J., BEAUDOIN V. (2014), « Parler aux machines, coproduire un ser- vice. Intelligence artificielle et travail du client dans les services vocaux automati- sés », in E. Kessous, A. Mallard, La Fabrique de la vente. Le travail commercial dans les télécommunications, Paris, Presses des Mines, pp. 97-128. VERRAN H. (2001), Science and an African Logic, Chicago, University of Chicago Press. VIDAL D. (2012), « Vers un nouveau pacte anthropomorphique ! Les enjeux anthro- pologiques de la nouvelle robotique », Gradhiva [en ligne], vol. 15, n° 1. VIDAL D. (2016), Aux frontières de l’humain, dieux, figures de cire, robots et autres artefacts, Paris, Alma. VIDAL D., GAUSSIER P. (2016), « Ressemblances de famille et robotique huma- noïde », in T. Dufrêne, E. Grimaud,A.C. Taylor, D. Vidal (dir.) Persona. Étrangement humain. Catalogue de l’exposition au Musée du Quai Branly, Paris, Actes Sud, pp. 235-236. WEIZENBAUM J. (1966), « ELIZA. A computer program for the study of natural language communication between man and machine », Communications of the ACM. WOOLGAR S. (1985), « Why not a sociology of machines? The case of sociology and artificial intelligence », Sociology, vol. 19, n° 4, pp. 557-572. Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte Document téléchargé depuis www.cairn.info - Orange Labs - - 161.106.4.5 - 18/01/2019 09h55. © La Découverte