Si les fausses informations ne constituent pas un phénomène nouveau, leur visibilité accrue et les impacts qu’elles ont dans le débat public à tous les niveaux de la société reposent sur des logiques de visibilité inédites encore mal comprises. La conférence « Circulation et visibilité des fausses informations dans un écosystème socionumérique » donnée par Alexandre Coutant (UQAM) illustre comment les choix techniques de développement des principales plateformes visitées sur Internet supposent des choix de mise en visibilité de contenus. Ils n’ont donc rien de neutre et peuvent être considérés comme des choix éditoriaux importants à connaître pour les internautes. Les différentes logiques réputationnelles, sociales ou algorithmiques qui les sous-tendent et les manières de les exploiter à son avantage lorsque l’on produit un contenu seront expliquées.
Cette conférence explicite les mécanismes sociotechniques orchestrant la mise en visibilité des contenus sur Internet et illustre comment des groupes peuvent s’en emparer pour s’accaparer une visibilité ou donner une impression d’importance. Elle a été réalisée dans le cadre de l’École d’été « S’informer dans un monde de fausses informations : produire et interpréter des contenus dans le nouvel écosystème informationnel ».
L’événement organisé par ComSanté, par le LabCMO et par la Chaire de recherche du Canada sur les enjeux socioculturels du numérique en éducation a eu lieu du 26 au 28 juin 2018, à l’UQAM.
Circulation et visibilité des fausses informations dans un écosystème socionumérique | Alexandre Coutant (UQAM)
1. Enjeux de confiance et
circulation de l’information
Circulation et visibilité des fausses
informations dans un écosystème
socionumérique
École d’été | S’informer dans un monde de fausses informations : produire et interpréter
des contenus dans le nouvel écosystème informationnel
UQAM - 26 au 28 juin 2018
Alexandre Coutant, UQAM, Département de communication sociale et publique
coutant.alexandre@uqam.ca
@acoutant
Spreadable and modifiable
under copyleft licence - GFDL
2. ●
À nuancer : exposition à des fausses informations ne serait pas si élevée (26%)
– http://www.digitalnewsreport.org/survey/2018/misinformation-and-disinformation-unpacked/
– Problème de définition / problème de méthodologie
3. Objectifs
●
Reprendre la main sur des phénomènes
sociotechniques opaques
– Comprendre la logique au-delà du
fonctionnement précis
●
Insister sur l’efficacité sociotechnique
– Usage malveillant de pratiques sociales, de
biais psychologiques et des logiques des
plateformes
5. Failles dans la cohérence de nos
représentations
●
Divergence partielle entre nos valeurs et
nos représentations/actions
– Vote partiellement décalé par rapport aux
attentes des citoyens
●
http://boussoleelectorale.com/
●
Rapport au monde marqué autant par la
rationalité que par des rapports moins
réflexifs
– Puissance du « storytelling » (Salmon, 2008)
6. Failles dans la remise en cause de
nos représentations
●
Polarisation
– Encouragement au mépris des expe
rts
●
Différentiel d’esprit critique selon la
convergence avec nos points de vue
– Nous considérons plus facilement com
me factuelle une opinion si elle corresp
ond à nos positions politiques
– Nous cherchons moins la vérité qu'à co
nfirmer nos représentations
●
Illusion de contrôle (Kantar, 2017)
– Surestimation de notre capacité à
distinguer les fausses informations
7. Exploitation de failles dans
nos rapports aux médias
●
Biais de confirmation
– Nous sélectionnons nos lectures en ligne
●
Nous ne lisons que très partiellement les contenus auxquels
nous sommes confrontés
– Jusqu’à 60% des lecteurs ne lisent que les titres
●
Favorise des avis superficiels, « par osmose » (Boyd, 2007)
●
Peut être détourné par producteurs d’informations : vocabulaire tranché
(mensonge, traître, corrompu, etc)
– Encouragé par notre tendance à la « paresse » cognitive
●
Effet halo : tendance à généraliser attitude (positive ou négative)
face à quelque chose ou quelqu’un aux éléments l’entourant
●
Peut être employé par la mobilisation de personnalités publiques
– http://www.sciencepresse.qc.ca/actualite/2017/03/21/science-propagation-fausses-nouvelles
8. Nuances
●
Biais cognitifs ne transforment pas nos
représentations
– Mécanisme de formation des représentations plus long et
complexe (Kaufmann, 2002, 2004)
– Risques des fausses informations est de figer et
radicaliser
●
Représentations pas figées
– Évolutions favorisées ou non par l’environnement
●
Bulles évitent la déstabilisation, raisonnement éthique
l’encourage
12. Exemple Facebook
●
Complété avec un ensemble de signaux contextuels (heure, lieu,
terminal, etc)
●
Pondéré différemment selon les profils (prédictions de comportements)
●
Pondéré selon des choix « éditoriaux » internes (médias locaux,
formats valorisés, monétisation, etc)
13. Possibilité de sélectionner supports
par rapport à la tâche d’information
●
Rôle démocratique de l’information
– « Industries de l'information reposent sur l'idée selon
laquelle les nouvelles produites en leur sein contribuent à
former un citoyen éclairé susceptible de prendre part
aux décisions politiques. […] En effet, la notion d’intérêt
public est centrale dans la description du métier de
journaliste qu’offre le code de déontologie de la
Fédération professionnelle des journalistes du Québec
(1996). Ce principe de service de l’intérêt public guide
chacune des actions et décisions du journaliste. »
(CRICIS, 2014)
●
Popularité / Autorité / Réputation / Prévision / Nouveauté / Choix
éditorial
– Impératif : ouverture (Rioux, Tchéhouali, 2018)
14. Des bulles de filtres?
●
Un mécanisme bien réel mais des actualisations diverses
(Pariser, 2011) et peu contrôlables (Mellet, 2009; Alloing, 2015)
– Selon plateformes / selon sujets
●
https://snap.stanford.edu/conflict/
http://www.pewinternet.org/2014/02/20/mapping-twitter-topic
-networks-from-polarized-crowds-to-community-clusters/
15. Des effets de
renforcement
●
Les contenus alternatifs appellent les conte
nus alternatifs
– « If you joined an antivaccine group on
Facebook, she observed, the platform might
suggest that you join flat-earth groups or maybe
ones devoted to Pizzagate—putting you on a
conveyor belt of conspiracy thinking » (Renée
Di Resta)
●
Exemples : Natural News / gamer gate et sa
récupération par Breitbart (Rebillard, 2017)
17. Et les médias
classiques ?
●
Vision particulière du monde :
– Définition d'un agenda
– Cadrage médiatique
– Sociocentrisme
●
Une bulle média?
– « Prendre son cas pour une généralité est une option risquée. Le
monde des media et de la publicité ne fait pas exception, comme
le montrent deux récentes enquêtes conduites par Ipsos UK pour
le compte de Thinkbox (association de TV commerciales) et de
Newsworks (presse) »
●
Profil sociologique différent
●
Consommation média différente
●
Pensent que 37% des anglais regardent la TV sur un autre
terminal que le téléviseur... Ils ne sont que 2%
18. Un ensemble d’outils exploitables
pour les producteurs de fausses
informations
●
Construction de la visibilité
– Emploi de réseaux de comptes connectés (humains ou non)
●
Construction de l’autorité
– Association à des informations fiables (chronologiquement,
sur le site, au sein même des contenus)
●
Exploitation des failles
– Règles de construction des discours (support, taille,
vocabulaire, types de contenus, etc)
●
http://www.casilli.fr/
20. L’exclusion de Trump du
G7
●
https://ici.radio-canada.ca/nouvelle/1106323/comment-une
-fausse-nouvelle-est-devenue-larticle-le-plus-partage-a-pro
pos-du-g7
21. L’exclusion de Trump du
G7
●
La base factuelle
– Les tweets du président français
Emmanuel Macron
●
Le support
– Un site Web,
« washingtonsource.org », créé
deux jours avant (outil d’analyse :
http://www.domaintools.com/)
●
Des relais
– Un petit réseau de pages anti-
Trump préalablement identifiées
(outil d’analyse :
http://www.crowdtangle.com/)
22.
23. L’exclusion de Trump du
G7
●
Résultat : l’article devient le plus partagé à propos du G7
(outil d’analyse : http://buzzsumo.com/)
24. L’exclusion de Trump du
G7
●
Pourquoi?
– Certainement intérêt économique (publicités Adsense repérées)
●
Quel impact?
– Vraisemblablement faible : partagé au sein de radicaux déjà
convaincus
25. Le pizzagate
●
https://www.cairn.info/revue-reseaux-2017-2-p-273.htm
– « 4 décembre 2016 en début d’après-midi, un homme armé d’un fusil
d’assaut fait feu, sans faire de victimes, dans un restaurant de Washington.
Le propriétaire de ce restaurant, la pizzeria Comet Ping Pong, est connu
pour être proche du Parti démocrate et en particulier de Tony Podesta,
frère du directeur de campagne d’Hillary Clinton. Quelques minutes plus
tard, le forcené sort du restaurant et se rend finalement sans résistance
aux policiers arrivés sur place. Il leur expliquera être venu jusqu’ici, après
plusieurs heures de route depuis sa Caroline du Nord, pour vérifier par lui-
même que cette pizzeria n’abritait pas un trafic sexuel d’enfants »
●
Sources :
– Bouche à oreille
– Infowars
– Sites Web variés
26. Le pizzagate
●
Problématique
– Quelles ressources nouvelles à l’argumentation sont
rendues disponibles par le numérique et l’Internet?
●
Hypothèse
– « Schèmes conspirationnistes, dont la rumeur en ligne
constitue l’un des véhicules privilégiés, trouvent avec
le numérique et l’Internet des éléments documentaires
de nature à renforcer l’illusion d’une démonstration de
leurs constructions intellectuelles »
●
Exemple : pizzagate et son inscription dans la tradition du
journalisme d’investigation le plus légitime
27. Le pizzagate
●
Sources mobilisées par les tenants du pizzagate
– Documents politico-administratifs confidentiels par l’intermédiaire
de Wikileaks ; images mises en ligne par les protagonistes sur
Instagram ; technologies de pointe comme la reconstitution faciale
automatique
●
Surinterprétation d’un courriel de John Podesta à propos d’un mouchoir
oublié et contenant un plan relatif à une pizza : message codé de
pédophiles
●
Invitation à analyser les courriels en détails via un forum alt-right de 4chan
et un forum pro-Trump de Reddit : surabondance de références à la pizza
cache un complot
28. Le pizzagate
●
Deuxième polémique lancée par Sean
Hannity (Fox News) sur son compte
Twitter : courriels révéleraient des rituels
occultes suivis par Podesta
●
James Alefantis, propriétaire de la pizzéria,
est identifié dans les courriels. Son compte
Instagram est alors surinterprété à son tour
(tee-shirt promotionnel d’un ami pris
comme preuve de pédophilie d’Alefantis;
photo d’une enfant dans la salle de jeu de
la pizzéria mise en scène de manière
macabre) : décontextualisation, ajout
d’éléments audiovisuels et de
commentaires de cadrage
– Décryptage et mise en relation jusque là
humains
29.
30. Le pizzagate
●
Connexion entre pratiques occultes de Podesta et
pédophilie supposée de Alefantis va être effectuée
grâce à l’informatique : programmes de reconstitution
faciale établissent un « match » entre Podesta, son
frère, et les portraits robots de ravisseurs d’une fillette
au Portugal en 2007
– « Millefeuille argumentatif » (Bronner, 2013) : accumulation et
surinterprétation plutôt que logique globale
31. Le pizzagate
●
Conclusion
– Configuration « technosémiotique » favorable au
conspirationnisme et à l’agitation politique telle
qu’elle se pratique à l’extrême-droite (Voirol, 2017)
●
« Attribution d’un surcroît d’authenticité par le biais du
hacking, jeu sur le contexte mouvant d’énonciation des
réseaux sociaux numériques, délégation à
l’informatique d’une pseudo-administration de la
preuve »
●
Espaces publics autonomes où faire fleurir ces
explications