Compte-rendu - " Robots, Internet des objets et Intelligence Artificielle dan...
big data
1. L’institut G9+, un think tank fédérant des
professionnels du numérique issus de grandes
écoles, proposera dans un livre blanc, à
para ître, de faire auditer par des experts
indépendants les algorithmes utilisés par les
entreprises pour valoriser le Big Data.
«Toc, toc, toc, c’est pour l’audit de vos algorithmes ».Pour l’instant pure fiction, cette scène de la
vie d’une entreprise pourrait un jour devenir réalité.
Encourager l’utilisation du Big Data par certains acteurs publics, contraindre les administrations à
embrasser l’Open Data, développer l’offre de formation aux métiers de l’analyse de
mégadonnées, valoriser l’expertise française en mathématique… L’institut G9+ formule ses
propositions pour faire de la France un acteur moteur dans cette nouvelle ère de la corrélation de
données toujours plus nombreuses . Le think tank fédérant vingt communautés d’anciens
élèves de grandes écoles conseille également de «réfléchir à la possibilité d’audit des
algorithmes par un régulateur certifié sur la protection de la vie personnelle à l’ère du Big Data :
pour les entreprises comme pour les acteurs publics ».
Contrôler les algorithmes qui valorisent les données
personnelles
L’institut G9+ publiera très prochainement un livre blanc intitulé «Big Data, l’accélérateur
d’innovation », en partenariat avec Renaissance Numérique, un autre laboratoire d'idées. A qui
confier le soin de contrôler les puissants et secrets algorithmes qui donnent du sens et de la
valeur à la masse de données ? L’institut G9+ envisage trois hypothèses. Il s’inspire de l’ouvrage
paru en mars 2014, Big Data: A Revolution That Will Transform How We Live, Work, and
Think de Viktor Mayer-Schonberger et Kenneth Cukier.
D’abord celle d’un «contrôle par le haut »,confié à des experts employés par une institution
publique qui aurait un œil sur les algorithmes utilisés par les autres agences de l’Etat, par
exemple les organismes sociaux qui comptent sur les données pour optimiser la lutte contre la
fraude.
Ensuite, celle d’un contrôle par des entreprises agrémentées «à la manière des cabinets de
comptabilité ou d’audit », soumis à des règles de confidentialité similaire. Ces offices seraient
certifiés par la Cnil ou une autre institution publique.
Enfin, celle d’un contrôle en interne : les entreprises confieraient à un médiateur le soin de faire
le lien entre la société civile, les consommateurs ou clients, et les départements utilisateurs de
l’algorithme.
Un algorithme reste une invention humaine
Dans de nombreux secteurs, de l’agriculture à la finance en passant par la sécurité urbaine, le
travail d’analyse des données est à l’origine de nouvelles applications diversement appréciées,
comme les comparateurs de prix, le suivi par satellite de l’évolution de plantations ou, cas
2. extrême, l’enregistrement et le filtrage de l’ensemble des télécommunications d’un pays. Souvent,
les données agrégées et corrélées à l’origine d’informations à forte valeur ajoutée font
référence à des éléments de vie privée de tout un chacun comme sa géolocalisation, ses
préférences d’achat ou ses relations sociales. Problème, les calculs informatiques bien
qu’automatiques n’en restent pas moins artificiels et soumis à l’intervention humaine. Or, leurs
conséquences peuvent-être importantes, par exemple lorsqu’une banque se fie à des données
pour évaluer la capacité de remboursement d’un ménage avant de lui accorder un crédit
immobilier.
L’humain n’étant pas infaillible, un algorithme peut avoir tout faux. Ou plus malicieusement, être
volontairement biaisé. Pour fonctionner, un algorithme a besoin de se baser sur une situation de
départ. Du coup, il ne fait parfois que faire perdurer les problèmes. Par exemple, une université
qui accepte déjà peu de filles parmi ses étudiants n’en acceptera pas plus en «déléguant »la
sélection d’entrée à un algorithme qui se fonde sur les listings de rentrée des années
précédentes (comme l’a cru l’université de médecine de Saint-Georges en Angleterre, en 1988).
Même les progrès scientifiques du machine learning, des algorithmes censés apprendre de leurs
erreurs, ne sont pas à l’abris d’un postulat de départ bancal.
Attention aux usages malencontreux du Big Data
Autre risque, un algorithme peut se faire berner par ceux qui connaissent mieux son
fonctionnement, comme l’atteste les techniques d’optimisation du référencement sur les moteurs
de recherche.
«Parce qu’ils constituent un prisme de lecture et de compréhension du réel de plus en plus
présents, les algorithmes et les données doivent faire l’objet de règles de gouvernance
réfléchies. Plusieurs exemples mettent en lumière comment une utilisation malintentionnée ou
malencontreuse des technologies Big Data peut transformer un algorithme en une machine à
discriminer, systémique et silencieuse »,écrit l’Institut G9+ dans son livre blanc.
Les limites de la transparence volontaire
Les entreprises sont pour la plupart réticentes à exposer leurs algorithmes aux regards d’autrui.
Surtout quand développer un algorithme peut coûter cher, mobilisant des mathématiciens et des
ingénieurs de haut-niveau. Aller dire à Google ou à une grande institution financière de révéler
une partie de ses secrets industriels... Ils sont d’ailleurs protégés par les lois sur la propriété
intellectuelle.
En savoir plus sur http://business.lesechos.fr/directions-numeriques/0203983432673-bientot-des-
audits-big-data-105910.php?f9EQFOItImJcTHB4.99