Earlegal du 22 mars 2024
- Quelles sont les règles applicables aux systèmes d’IA ?
- Quelle responsabilité pour les systèmes d’IA ?
- Les résultats des systèmes d’IA peuvent-ils être protégés par des droits intellectuels ?
Par Quentin BEBRONNE, Chloé ANTOINE, Alexandre CRUQUENAIRE et Anne-Valentine RENSONNET
earlegal #9 - Comment faire face à des problèmes d’exécution (marché public) ?
earlegal #11 - IA en plein essor : réinventer le droit pour un cadre adapté ?
1. ALL OVER THE WORLD
IA en plein essor :
réinventer le droit
pour un cadre
adapté ?
22 mars 2024
Alexandre CRUQUENAIRE, Anne-Valentine RENSONNET,
Chloé ANTOINE & Quentin BEBRONNE
4. Introduction et plan de la présentation
1. Quelles sont les règles applicables aux systèmes d’IA ?
2. Quelle responsabilité pour les systèmes d’IA ?
3. Les résultats des systèmes d’IA peuvent-ils être
protégés par le droit d’auteur ?
6. Sondage
Est-ce que vous avez déjà défini une
politique interne concernant l’utilisation
d’outils basés sur l’IA ?
• OUI
• NON
7. Règlement sur l’IA (« AI Act »)
Texte de compromis du 26 janvier 2024
1. Quelles sont les règles applicables
aux systèmes d’IA ?
8. Qu’est-ce qu’un « système d’IA »?
qui est conçu pour fonctionner avec
différents niveaux d’autonomie
qui peut s'adapter après son
déploiement
qui, pour des objectifs explicites ou
implicites, déduit*, à partir des données
qu’il reçoit (input), comment générer
des résultats (output) tels que :
des prédictions
des recommandations
du contenu
des décisions qui peuvent influencer
des environnements physiques ou
virtuels
Système basé sur une machine
ET
* capacité de déduction résultant de
techniques comme le machine learning et
les approches basées sur la logique et les
connaissances
9. Quels systèmes d’IA sont réglementés ?
EXCLUSIONS
Activités hors du champ d’application du droit de l’Union (en particulier : sécurité nationale, militaire et
défense)
Systèmes/modèles d’IA spécifiquement développés et mis en service pour la seule fin de recherche et
développement scientifiques
Activités de recherche, de test et de développement concernant les systèmes/modèles d’IA avant leur mise
sur le marché/en service (sauf les activités de test en conditions réelles)
Si licences libres et open source : limitation des obligations pour modèles d’IA à usage général et
composants d’IA utilisés/intégrés dans un système d’IA à haut risque
Logique
cumulative
Approche fondée
sur le risque
Systèmes et
modèles d’IA à
usage général
10. Classification des systèmes d’IA – approche
fondée sur le risque
Risque
inacceptable
Haut risque
Risque limité
Risque minimal
• Exploitation des vulnérabilités (âge, handicap,
situation sociale/économique) d’un groupe
spécifique
• Notation sociale conduisant à un traitement
préjudiciable ou défavorable
• Catégorisation biométrique en vue de
déduire/inférer des informations sensibles
(opinions politiques, « race », appartenance à
un syndicat, religion, croyances philosophiques,
vie sexuelle, orientation sexuelle)
• …
• Systèmes interagissant avec des
humains (ex. chatbots)
• Systèmes générant du contenu
synthétique (contenu audio,
image, vidéo ou texte)
• Systèmes de reconnaissance des
émotions
• Systèmes de catégorisation
biométrique
• Systèmes générant ou manipulant
du contenu (deep fakes) Catégorie résiduelle (ex.
filtres anti-spam)
Pas d’obligations
Obligations de transparence
Exigences + procédure d’évaluation
de la conformité ex-ante
Interdit
11. Systèmes d’IA à haut risque
Nouvelles législations
d’harmonisation UE
(annexe II, section A)
Autres législations
d’harmonisation UE
(annexe II, section B)
Domaines spécifiques
(annexe III)
Produits ou composants de sécurité
d’un produit soumis à une évaluation
de la conformité par un tiers
conformément aux actes législatifs UE
concernant :
dispositifs médicaux
dispositifs médicaux de diagnostic
in vitro
téléphériques
jouets
bateaux de plaisance et véhicules
nautiques à moteur
ascenseurs
machines
équipements de protection
individuelle
équipements sous pression
équipements radio
appareils à combustibles gazeux
appareils et systèmes de protection
destinés à être utilisés en
atmosphères explosibles
Produits ou composants de sécurité d’un
produit soumis à une évaluation de la
conformité par un tiers conformément
aux actes législatifs UE concernant :
véhicules à moteur et remorques
véhicules agricoles et forestiers
aviation civile
marine
véhicules à deux ou trois roues et
quadricycles
rail
Limitation des dispositions applicables :
art. 84 (évaluation et révision du
Règlement)
art. 53 (bacs à sable réglementaires
en matières d’IA – “AI regulatory
sandboxes”) si les exigences relatives
aux systèmes d'IA à haut risque
prévues par le Règlement ont été
intégrées dans la législation
d'harmonisation UE concernée
Certains systèmes biométriques
Infrastructures critiques
Education et formation
professionnelle
Emploi, gestion de la main-d’œuvre
et accès à l’emploi indépendant
Accès et droit aux services privés
essentiels, services publics et
prestation sociales
Domaine répressif
Gestion de la migration, de l’asile et
des contrôles aux frontières
Administration de la justice et
processus démocratiques
EXCEPTION
risque significatif de préjudice pour la
santé, la sécurité ou les droits
fondamentaux des personnes physiques ;
et
profilage
ex. accomplissement d’une tâche
procédurale restreinte ou amélioration
du résultat d’une activité humaine
12. Systèmes et modèles d’IA à usage général
Système d’IA à usage général
basé sur un modèle d'IA à usage général
capable de répondre à des besoins
variés (pour une utilisation directe ou
pour une intégration dans d'autres
systèmes d’IA)
Modèle d’IA à usage général
grande généralité
capable d'exécuter de manière
compétente un large éventail de
tâches distinctes
peut être intégré dans une variété de
systèmes ou d'applications en aval
Modèle d’IA à usage
général présentant
un risque systémique
si capacités d’impact élevées
(puissance de calcul dans
l’entraînement > 10^25 FLOPs
ou si désigné comme tel par
la Commission)
13. Acteurs concernés
Fournisseur
Mandataire
Importateur
Déployeur
Distributeur
Fabricant de
produit
développe ou fait développer un système
d’IA/modèle d’IA à usage général et le met sur
le marché/en service sous son propre nom ou
sa propre marque
mise sur le marché/en service dans l’UE ou hors
UE mais résultats (output) utilisés dans l’UE
utilise un système d’IA sous sa propre
autorité
établi/situé dans l’UE ou hors UE mais
résultats (output) utilisés dans l’UE
EXCEPTION : activité personnelle à
caractère non professionnel
Possible requalification en
fournisseur
met sur le marché/en service dans l’UE
un système d’IA avec son produit sous
son nom/sa marque
14. Principales obligations et sanctions
Amendes administratives : jusqu’à 15.000.000 € ou 3% du chiffre d’affaires annuel mondial
total réalisé au cours de l'exercice précédent (le montant le plus élevé étant retenu, sauf
pour les PME) en cas de non-respect de ces obligations
Systèmes d’IA à haut risque
Fournisseur :
documentation technique
systèmes de gestion des risques et de gestion
de la qualité
gouvernance des données (qualité des
données d’entraînement)
procédure d’évaluation de la conformité
conservation des logs
transparence et instructions d’utilisation
obligations d’enregistrement
…
Déployeur :
usage conforme aux instructions d’utilisation
supervision humaine (si contrôle sur système
d’IA)
qualité des données d’entrée (si contrôle sur
ces données)
analyse d’impact sur les droits fondamentaux
(dans certains cas)
droit à l’explication des personnes affectées
(dans certains cas) si décision individuelle
…
Modèles d’IA à usage général
documentation technique
collaboration avec le Bureau de l’IA (AI Office)
…
Modèles d’IA à usage général présentant un
risque systémique
+ notification à la Commission européenne
+ évaluation du modèle en vue d’identifier et
d’atténuer le risque systémique
+ niveau adéquat de protection en matière
de cybersécurité
…
Systèmes d’IA à risque limité
Obligations de transparence (ex. informer de
l’interaction avec un système d’IA, résultats
détectables comme étant artificiellement
générés/manipulés)
15. Application à notre fil conducteur
Logiciel de présélection des
candidats dans le cadre
d’une procédure de
recrutement
Système d’IA à
haut risque
(annexe III)
sauf si pas de risque
significatif de
préjudice pour la
santé, la sécurité ou
les droits
fondamentaux et pas
de profilage
Déployeur
Fournisseur
16. Quand ces règles seront-elles applicables ?
Dispositions relatives
aux systèmes d’IA à
risque inacceptable
E.V. + 6 mois
Dispositions relatives
aux modèles d’IA à
usage général
Sanctions
E.V. + 12 mois
Autres dispositions
E.V. + 24 mois
Obligations imposées
aux systèmes d’IA à
haut risque
E.V. + 36 mois
18. Problèmes clés
Lorsqu'un préjudice est subi à la
suite d'une décision prise par
une IA autonome :
• Qui doit être tenu
responsable de ce
dommage ?
• Comment établir le lien de
causalité ? Comment
fonctionne le système de
preuve ?
19. Instruments légaux en cours d'adoption
• Proposition de Directive du
28 septembre 2022 du
Parlement européen et du conseil
relative à l'adaptation des règles
en matière de responsabilité
civile extracontractuelle au
domaine de l'intelligence
artificielle (COM (2022) 496 final) ;
• Proposition de Directive du 28
septembre 2022 du Parlement
européen et du Conseil relative à
la responsabilité du fait des
produits défectueux (COM (2022)
495 final).
20. Directive sur la responsabilité en matière
d'IA
Champ d'application :
Art. 1.1 : La présente directive établit des
règles communes concernant:
(a) la divulgation d’éléments de preuve
sur les systèmes d’intelligence artificielle
(IA) à haut risque afin de permettre à un
demandeur d’étayer une action civile en
réparation de dommages causés par une
faute extracontractuelle ;
(b) la charge de la preuve en cas
d’actions civiles fondées sur une faute
extracontractuelle introduites devant les
juridictions nationales pour des dommages
causés par un système d’IA.
21. Définitions pertinentes
• Référence explicite au Règlement sur l'IA :
o "système d'IA" ;
o "système d'IA à haut risque" ;
o "fournisseur" ;
o "utilisateur ou déployeur" ;
• "devoir de vigilance" : norme de conduite requise,
fixée par le droit national ou le droit de l’Union, pour
éviter de porter atteinte aux intérêts juridiques reconnus
au niveau du droit national ou du droit de l’Union,
notamment la vie, l’intégrité physique, les biens et la
protection des droits fondamentaux.
22. Notre fil conducteur
Comment prouver la
discrimination à l'emploi ?
Besoin d'éléments de
preuve.
Possibilité de les demander
tant au fournisseur du
système d'IA (A) qu'au
déployeur (agence intérim)
(art. 3).
Si refus, possibilité de
demander au juge
d'ordonner la divulgation
des éléments de preuve
(art. 3).
Si refus persistant,
présomption de faute et de
lien causal (art. 3 et 4).
23. Précisions sur la présomption de lien causal
Présomption réfragable de lien causal entre la faute du défendeur et le
résultat produit par le système d'IA ou l'incapacité de celui-ci à produire
un résultat, lorsque les conditions suivantes sont réunies (art. 4.1) :
• Le demandeur a démontré ou la juridiction a présumé la faute du
défendeur consistant en un manquement à un devoir de vigilance ;
• Il est raisonnable de croire que la faute a influencé le résultat du
système d'IA ou l'incapacité de celui-ci à produire un résultat ;
• Le demandeur a démontré que le résultat du système d'IA ou
l'incapacité de celui-ci à un produire un résultat est à l'origine du
dommage.
24. 3. Les résultats de systèmes d'IA peuvent-
ils être protégés par le droit d'auteur?
25. IA et droit d'auteur
Deux problématiques :
• Les contenus générés par l'IA (output) ;
• Les données utilisées par l'IA (input).
26. Contenus générés par IA
• Condition sine qua non de
protection en droit d'auteur
belge et européen : l'originalité
de l'œuvre.
• Œuvre originale au sens de la
jurisprudence belge et
européenne = œuvre qui reflète
la personnalité de l'auteur ;
l'auteur doit exprimer des choix
libres et créatifs et imprégner
l'œuvre de sa touche personnelle
(voyez notamment en ce sens : CJUE, 16 juillet
2009, C-5/08 Infopaq et CJUE, 1er décembre
2011, C-145/10, Painer).
27. Contenus générés par IA
• Contenu uniquement généré par IA : condition
d'originalité certainement pas rencontrée
• Contenu généré avec l'assistance d'une IA :
Analyse au cas par cas
Expression de la personnalité de l'auteur par des choix libres et
créatifs.
28. Jurisprudence US
• Création d'une bande dessinée
via Midjourney (IA générative) ;
• Protection au titre de "copyright"
conférée à la bande dessinée
par le US Copyright Office en
septembre 2022 ;
• Décision de révocation du US
Copyright Office en octobre
2022 car œuvre réalisée à l'aide
d'une IA ;
• Appel de la décision par l’artiste;
• Selon l'Office, l'auteur n'a pas
exercé un contrôle suffisant au
stade de l'exécution lors de la
création de l'œuvre.
29. Contenus utilisés par l'IA
• Besoin de nourrir l'IA par
diverses données
• Certaines données peuvent
être des œuvres protégées
par le droit d'auteur
• Alimenter l'IA avec des
œuvres protégées =
violation du droit de
reproduction
30. Contenus utilisés par l'IA
• Exception : fouille de textes et de données (art. XI.190, 20°
CDE)
• Limitations de l'exception :
Uniquement objets protégés licitement accessibles ;
Droit moral de l'auteur ;
Possibilité d'opposition ;
Atteinte à l'exploitation normale de l'œuvre.
31. AI ACT : références au droit d’auteur
Système d’IA à usage général, notamment les grands modèles
génératifs :
« Le développement et l'entraînement de ces modèles requièrent un
accès à de grandes quantités de texte, d'images, de vidéos et
d'autres données. Les techniques de fouille de textes et de données
peuvent être largement utilisées dans ce contexte pour extraire et
analyser ces contenus, qui peuvent être protégés par le droit
d'auteur et les droits voisins. » (considérant 105)
Obligations pour le fournisseur (art. 53) :
• Mise en place d’une politique visant à respecter la législation sur
le droit d’auteur et les droits voisins
• Rédaction et mise à disposition du public un résumé suffisamment
détaillé du contenu utilisé pour entraîner le modèle d'IA à usage
général
32. Exemple : action du New York Times contre ChatGPT
• L’utilisation et la copie non
autorisée de contenus du
quotidien notamment durant « l ’
entrainement » de ChatGPT.
• La reproduction d'articles du New
York Times lorsque l'utilisateur le
demande explicitement.
• La présence d’« Hallucinations»
imputée erronément au New York
Times.
NYT_Complaint_Dec2023.pdf
(nytimes.com)
33. Notre fil conducteur
Logiciel de présélection des
candidats dans le cadre
d’une procédure de
recrutement
• Génération de
questionnaires pour filtrer
les candidatures pourrait
être constitutif d’une
violation du droit d’auteur
34. Pour aller plus loin…
Si vous cherchez un partenaire juridique de confiance pour
accompagner vos projets IA, contactez l’équipe Lexing !
DÉCOUVREZ NOS RESSOURCES GRATUITES SUR NOTRE SITE
Intelligence artificielle - Lexing
35. Nos prochaines formations earlegal
Vendredi 26 avril : Expropriation et dépollution en Wallonie : comment
réagir ?
earlegal - Expropriation et dépollution en Wallonie : comment réagir
? Billets, Le ven 26 avr. 2024 à 08:30 | Eventbrite
Vendredi 24 mai : La protection du consommateur liée au numérique :
les nouveautés ?
earlegal- La protection du consommateur liée au numérique: les
nouveautés ? Billets, Le ven 24 mai 2024 à 08:30 | Eventbrite