1. Séminaire GRCDI // Rennes // 12 Septembre 2008 Contextes et enjeux de la culture informationnelle, approches et questions de la didactique de l’information Quelles grandes évolutions affectent les processus documentaires, les technologies et les usages informationnels ? Quelles leçons peuvent en être tirées pour la réflexion sur la culture informationnelle ? « REDOCUMENTARISATION DU MONDE ET CULTURE INFORMATIONNELLE » //..// Olivier Ertzscheid //..// Maître de Conférences //..// //..// Université de Nantes //..// IUT de La Roche-sur-Yon //..// http://www.affordance.info
4. 1995 2005 2015 ? Web public Web privé Web personnel (Desktop) Web intime (Mail) Quoi ? indexé non-indexé DERIVE DES CONTINENTS DOCUMENTAIRES Web public Web privé Web personnel (Desktop) Web intime (Mail) Web extime (blogs) Qui ? Web public Web privé Web personnel (Desktop) Web intime (Mail) Web extime (blogs) ? Pourquoi ?
Prenons la culture de l’information comme un socle sur lequel s’agrègent un certain nombre de filtres technologiques comme autant d’artefacts, de marqueurs de notre présence et de nos accès connectés : navigateurs, messagerie instantanée, moteurs de recherche, réseaux sociaux, terminaux mobiles, etc. Choisissons ensuite trois niveaux d’observation pour déterminer ce qui est « au cœur » de ces nouvelles « littéracies », de ces nouvelles compétences, de ces nouvelles manières d’apprendre, de chercher, d’organiser, d’accéder, de diffuser de l’information et des connaissances. Ces trois niveaux sont, premièrement celui des usages et des pratiques, deuxièmement celui des technologies et troisièmement celui des processus documentaires.
Pour faciliter la compréhension de la suite, posons comme un postulat (que l’on pourra discuter), que 2 processus sont au cœur de tous les autres. La dérive des continents documentaires d’une part, qui « circonscrit », définit et qui règle l’impact réel des « nouvelles » technologies et de leurs « nouveaux » usages ou des nouvelles pratiques qu’elles inaugurent. L’autre processus est celi de la « redocumentarisation », c’est à dire la capacité offerte à chacun de réorganiser, de recomposer les unités sémiotiques d’un document ou d’un ensemble de documents.
La dérive des continents documentaires est un phénomène assez siple à observer. Nous sommes passé en quelques années d’une configuration dans laquelle seul le web « visible », c’est à dire indexable par les moteurs, était effectivement accessible, préservant les autres « silos informationnels » constitués par le contenu de nos disques durs (web personnel), par nos échanges « intimes » (mails) et le web « invisible » (c’est à dire protégé en accès ou techniquement non-indexable – web dynamique notamment). Aujourd’hui, on observe que l’ensemble de ces silos, de ces continents constitue un tout unique. Un seul et même outil, une seule et même interface permet d’accéder à cet ensemble dont la porosité des frontières est aujourd’hui manifeste.
Le second processus est celui de la redocumentarisation. Selon la définition de Manuel Zacklad, "Redocumentariser, c’est documentariser à nouveau un document ou une collection en permettant à un bénéficiaire de réarticuler les contenus sémiotiques selon son interprétation et ses usages à la fois selon la dimension interne (…) ou externe (…). Dans ce contexte, la numérisation offre des opportunités inédites pour la réappropriation des documents et des dossiers en vue de satisfaire les intérêts de nouveaux bénéficiaires." Or aujourd’hui sur le net, tout « est » ou « fait » document. Toute trace, toute inscription, tout flux ou tout échange numérique, à compter du moment où il apparaît sur le réseau, même de manière fugitive ou volontairement éphémère.
Concrètement, il y a une fragmentation des usages, des outils, une fragmentation des différentes instanciations de notre présence en ligne et de notre rapport à la « chose » documentaire, fragmentation qui « dope » le processus de redocumentarisation et ses effets. Aujourd’hui, un internaute produit des écrits qu’il publie sur son blog, des articles scientifiques déposés dans des sites d’archive ouverte, des tribunes dans des sites de journalisme citoyen (de type Agoravox). En parallèle il publie également des photos de famille sur FLickR, des vidéos sur YouTube, des signets dans Del.icio.us. Le tout en continuant de poster des messages, de participer à des forums, d’échanger différents documents sur lesquels il travaille parfois à plusieurs mains, grâce à un wiki ou à des outils bureautiques en ligne. Chaque item, chaque trace « fait document ». Chaque ensemble, chaque appariement – souhaité ou subi – peut « faire collection ». Il faut par ailleurs noter que ces multiples dépôts s’accompagnent de principes d’autorité qui diffèrent dans leur manifestation (« je me déclare ou non l’auteur de telle ou telle ressource », « j’utilise un pseudonyme ou un avatar » …) et dans leurs conséquences (on peut retrouver des documents dont j’ai été l’auteur mais qui ont été modifés ou repris par d’autres, etc …). C’est ce qu’Elevlyne Broudoux appelle le principe d’autoritativité, c’est à dire : « l’attitude consistant à produire et à rendre public des textes, à s’auto-éditer ou à publier sur le WWW, sans passer par l’assentiment d’institutions de référence référées à l’ordre imprimé ». En bref, la redocumentarisation s’applique à des documents, à des fragments de documents, à des collections fragmentaires de documents, à des collections de documents fragmentés, et ainsi de suite … Le problème est que les « documents » ne sont pas seuls à pouvoir être redocumentarisés.
Il est également possible de redocumentariser notre « identité connectée ». Dans le mode réel, nous disposons tous de « documents d’identité », factuels, lesquels documents et identités peuvent être « documentés » de différente manière, par exemple par des services de police ou par les services sociaux. Dans le monde « virtuel », les sites de réseaux sociaux comme Facebook permettent de redocumentariser notre identité connectée, qu’elle soit ou non en adéquation avec notre identité réelle : la description identitaire est ici fragmentée, enrichie et complétée par d’autres. « Je » me définis par la manière dont je me décris mais également par la nature de mes relations, des réseaux auxquels j’appartiens, des opinions des « groupes » ou des « communautés » que je fréquente. Cette redocumentarisation particulière est à la fois très frappante et très pregnante de fait de l’essor et de l‘engouement auprès des publics jeunes des sites de réseaux sociaux. Ce qui permet d’indiquer que pour la première fois à l’échelle de la culture informationnelle, le premier terrain documentaire, c’est celui de ma propre subjectivité. C’est « moi ». L’une des toutes premières explorations documentaire de ces publics n’est plus celle d’un document physique ou même numérique : c’est celle de leur subjectivité connectée. Ceci peut peut-être expliquer un certain nombre de changements, de dysfonctionnements, de naïvetés constatées dans l’approche qu’ont les étudiants et les publics « novices » du « fait » documentaire. Une autre manière de voir les choses est de se dire que c’est là un retour au « Je suis moi-même la matière de mon livre » de Michel de Montaigne. A cette différence qu’en s’inscrivant sur Facebook à 15 ans, on n’a que très peu souvent conscience « d’entrer en documentation de soi ».
Internet des objets.
Poursuivons maintenant notre progression, et admettons pour les besoins de la démonstration que la dérive des continents documentaires définisse un nouveau périmètre de la « culture informationnelle » et que la redocumentarisation permette d’instancier un certain nombre de nouvelles modalités. Ce sont ces modalités que nous allons maintenant explorer.
La première leçon, le premier « enseignement » du côté des technologies, c’est le passage des « technologies de l’intelligence » (pour reprendre expression de pierre Lévy) aux technologies de la capillarité (la capillarité désignant « l'étude des interfaces entre deux liquides non miscibles »). Ces technologies de la capillarité ont pour enjeu d’enregistrer en temps réel (synchronicité, immédiateté) un maximum de traces (toutes ?), de comportements, de documents, de contenus, d’opinions (systèmes de votre « Digg-Like »), , bref de tout ce qui est permis par la confusion des pratiques que génère la redocumentarisation globale du net et la dérive des continents documentaires. Ces technologies du traçage prennent aujourd’hui le pas sur les seules logiques de collaboration et de coopération. Leur caractère subi (opt-out) les rend particulièrement pernicieuses. L’objectif est parfaitement clair : constituer ce que John Battelle appelle une Base de donnée des intentions, pour (au mieux) optimiser la monétisation publicitaire de tout comportement, de toute activité en ligne. Une autre manière de caractériser ce phénomène est de souligner le passage d’une logique de « Workflow » (flux d'informations au sein d'une organisation) à une logique de Lifestream (des outils que vous alimentez ou qui sont alimentés automatiquement et qui donnent en temps réel votre « statut », votre activité, votre état d’esprit du moment) rendant transparent l’essentiel des comportements informationnels d’un individu connecté. La condition sine qua non de tout cela c’est, naturellement, de se doter des moyens de « capturer » et de stocker cette information « à la volée », mais c’est aussi d’entretenir une certaine confusion, une totale porosité entre des pratiques jusque là distinctes.
Ainsi un même outil, une seule et même société à tout intérêt à disposer d’une offre de service la plus large possible, permettant indistinctement de chercher, communiquer, de s’orienter … et ce dans tous les continents documentaires réunifiés. D’où l’importance de mesurer les différentes parentés entre services et applications, et la périphérie des mêmes services et applications pour être capable d’en faire un usage avisé et « discriminant », c’est à dire qui ne laisse pas filtrer plus d’informations personnelles que l’on ne l’aurait initialement souhaité. Il ne s’agit pas non plus de bâtir une « didactique du complot » mais d’ouvrir les yeux sur des pratiques avérées, et dont la simple compréhension suffit à ôter une bonne partie de leur dangerosité.
Le deuxième leçon, le deuxième enseignement, c’est la passage des artefacts technologiques (moteurs de recherche, réseaux sociaux) au service de technologies de l‘artefact.
Un exemple récent permet de les illustrer : le « Photoshop Naked Contest » ayant visé Sarah Palin (possible future vice présidente des Etats-Unis).
Ainsi aucune des photos figurant sur la diapositive n’est réelle. Toutes sont fausses et relèvent d’un trucage.
Toutes sont fausses et relèvent d’un trucage. Ces « Photoshop Contest » sont aujourd’hui une pratique très fréquente sur le net. Voilà pour le domaine de l’image. Mais c’est la même chose pour la vidéo, avec des résultats de plus en plus … bluffants, de plus en plus, « à l’épreuve du réel ». Ainsi cette vidéo dans laquelle l’étoile noire de la guerre des étoiles surveille San Francisco et où les vaisseaux des troupes de l’empire se posent et décollent de n’importe où dans la ville. L’illusion de vraisemblance est ici presque parfaite. Côté « texte » (tout à commencé par là), ce phénomène prend naissance dans les célèbres guerres d’édition Wikipédiennes et les diverses tentatives de redocumentarisation déviantes. Naturellement le truquage numérique n’est pas nouveau. Pas davantage que ne le sont les techniques de manipulation utilisées par différents médias dans l’histoire. Mais deux facteurs me semblent en revanche nouveau ou à tout le moins inédits à cette échelle. Le premier c’est l’instrumentalisation de plus en plus systématique qui est faite de ces pratiques. Pour reprendre l’exemple de Sara Palin, le « buzz » fait autour de l’affaire (sans fondement) de ses prétendues photos dénudée a permis à son co-listier de remonter quantitativement à un niveau de couverture médiatique équivalemment à celui de Barak Obama. Deuxième nouveauté de ces technologies de l‘artefact, leur basculement massif dans la sphère des usages amateurs.
Ainsi il fallait auparavant une bonne vingtaine de minute à un infographiste pour, à partir d’un cliché numérique, obtenir une impression de vieillissement homogène du papier. Cette manipulation est aujourd’hui réalisable en quelques secondes par n’importe qui, sans mobiliser d’autre compétence que le téléchargement du fichier initial.
Ce qui nous amène à la troisième leçon : la nécessité de bâtir une « nouvelle » heuristique de la preuve, qui tienne compte de ces phénomènes, qui les explicite, et qui permette (, de les suivre non pas tant en temps réel (les outils existent déjà) mais de les analyser a posteriori, dans l’optique d’une rétro-ingénierie documentaire. Une rétro-ingénierie qui tienne compte de la babélisation (multiplication et « atomisation ») des expertises et qui redonne à chacun, à chaque contenu, la part d’autoritativité qui lui incombe, et celle-là seule. En d’autres termes, introduire la « génétique documentaire » dans les enseignements et les cursus de culture informationnelle, comme la génétique textuelle fut introduite dans les enseignements de littérature.
Là encore, si l’on n’y parvient pas, il y a un risque … Le risque d’entretenir la confusion déjà avérée et particulièrement nocive entre autorité et notoriété, entre affluence et influence, entre publicité et légitimité. D’autant que ce facteur de risque est lui aussi, tout comme la confusion des pratiques dont je parlais tout à l’heure, largement instrumentalisé par des sociétés qui entretiennent à dessein cette confusion pour « doper » un cercle vertueux publicitaire.
La quatrième leçon, le quatrième enseignement, c’est celui qui oblige à repenser le champ d’action, le champ d’autorité, le champ de compétence de la figure de l’amateur et de celle du professionnel. « Professionnel un jour, amateur toujours ». Il faut de plus en plus fréquemment accepter l’alternance de ces deux « visages » de la compétence au lieu de la stigmatiser en perpétuant une dichotomie qui n’a parfois plus lieu d’être. L’exemple emblématique de cette reconfiguration c’est celui des folksonomies, système d’indexation libre, collaborative, dans laquelle les usagers « tagguent », c’est à dire indexent des contenus qu’ils ont produits ou que d’autres ont mis en ligne. L’exemple du « processus documentaire » de l’indexation est à bien des égards emblématique. Après être devenue marchande (système des liens sponsorisés), l’indexation s’est peu à peu départie de son vernis professionnel pour devenir une procédure cognitive allégée, immédiate, communautaire, partagée, bruitée. Un « bruit » informationnel qui suffirait à remettre en cause la légitimité de cette pratique si … si … si … si on n’observait pas un effet de seuil qui corrige ces effets. Aujourd’hui, indexation « classique » et « Folksonomies » cohabitent très souvent pour offrir à l’usager « le meilleur des deux mondes ».
Dans le même temps, il ne faut pas se laisser embarquer par les nouvelles mythologies propres à ces nouvelles cultures de l’information. Ainsi, le rôle et l’impact de la participation doit être largement relativisé.
Cinquième leçon, cinquième enseignement, en forme de pari. Le pari d’arriver à structurer un enseignement, une « éducation à l’information » qui accepte de s’affranchir de ses habituels repères euclidiens pour réorganiser ses fondamentaux selon troix axes. Primo : les pratiques individuelles sont indissociables de leur inscription communautaire. Deuxio : les typologies des contenus documentaires sont pour partie à revoir (à l’aune des critères précédemment énoncés) Tertio : le double mouvement de massification des accès et de marchandisation des pratiques (et des accès) conditionne l’ensemble dans le contexte d’une « économie sociale des documents numériques ».
Sixième leçon, sixième enseignement : la vocation des filtres technologiques est de disparaître ou de s’intégrer (intégration dans des artefacts technologiques plus anciens ou mieux maîtrisés, ou intégration qui peut également passer par une externalisation du service produit). Mal analysé, cet affaiblissement constant des « barrières » technologiques peut avoir un effet de contamination problématique : si on ne pense pas la « culture de l’information » en s’inspirant des leçons précédentes, le risque est de voir la même « culture de l’information » transporter des pratiques « n-1 » dans des environnements technologiques « n+1 ». En d’autres termes, le risque est de créer au mieux un décalage (effet retard) et au pire une fracture cognitive.
La septième leçon restera malheureusement en suspens. En superposant les six précédentes, on pourra cependant dégager une piste. Celle de construire une « mashup literacy », à l’épreuve de la reconfiguration du périmètre de la culture informationnelle actuelle. De réfléchir à l’enseignement, à la didactisation de cette culture du mixage …