SlideShare une entreprise Scribd logo
1  sur  36
Télécharger pour lire hors ligne
ALL OVER THE WORLD
IA en plein essor :
réinventer le droit
pour un cadre
adapté ?
22 mars 2024
Alexandre CRUQUENAIRE, Anne-Valentine RENSONNET,
Chloé ANTOINE & Quentin BEBRONNE
Introduction
AI HUB by Larcier-Intersentia
Introduction et plan de la présentation
1. Quelles sont les règles applicables aux systèmes d’IA ?
2. Quelle responsabilité pour les systèmes d’IA ?
3. Les résultats des systèmes d’IA peuvent-ils être
protégés par le droit d’auteur ?
Notre fil conducteur
Logiciel de présélection des
candidats dans le cadre
d’une procédure de
recrutement
Sondage
Est-ce que vous avez déjà défini une
politique interne concernant l’utilisation
d’outils basés sur l’IA ?
• OUI
• NON
Règlement sur l’IA (« AI Act »)
Texte de compromis du 26 janvier 2024
1. Quelles sont les règles applicables
aux systèmes d’IA ?
Qu’est-ce qu’un « système d’IA »?
qui est conçu pour fonctionner avec
différents niveaux d’autonomie
qui peut s'adapter après son
déploiement
qui, pour des objectifs explicites ou
implicites, déduit*, à partir des données
qu’il reçoit (input), comment générer
des résultats (output) tels que :
 des prédictions
 des recommandations
 du contenu
 des décisions qui peuvent influencer
des environnements physiques ou
virtuels
Système basé sur une machine
ET
* capacité de déduction résultant de
techniques comme le machine learning et
les approches basées sur la logique et les
connaissances
Quels systèmes d’IA sont réglementés ?
EXCLUSIONS
Activités hors du champ d’application du droit de l’Union (en particulier : sécurité nationale, militaire et
défense)
Systèmes/modèles d’IA spécifiquement développés et mis en service pour la seule fin de recherche et
développement scientifiques
Activités de recherche, de test et de développement concernant les systèmes/modèles d’IA avant leur mise
sur le marché/en service (sauf les activités de test en conditions réelles)
Si licences libres et open source : limitation des obligations pour modèles d’IA à usage général et
composants d’IA utilisés/intégrés dans un système d’IA à haut risque
Logique
cumulative
Approche fondée
sur le risque
Systèmes et
modèles d’IA à
usage général
Classification des systèmes d’IA – approche
fondée sur le risque
Risque
inacceptable
Haut risque
Risque limité
Risque minimal
• Exploitation des vulnérabilités (âge, handicap,
situation sociale/économique) d’un groupe
spécifique
• Notation sociale conduisant à un traitement
préjudiciable ou défavorable
• Catégorisation biométrique en vue de
déduire/inférer des informations sensibles
(opinions politiques, « race », appartenance à
un syndicat, religion, croyances philosophiques,
vie sexuelle, orientation sexuelle)
• …
• Systèmes interagissant avec des
humains (ex. chatbots)
• Systèmes générant du contenu
synthétique (contenu audio,
image, vidéo ou texte)
• Systèmes de reconnaissance des
émotions
• Systèmes de catégorisation
biométrique
• Systèmes générant ou manipulant
du contenu (deep fakes) Catégorie résiduelle (ex.
filtres anti-spam)
Pas d’obligations
Obligations de transparence
Exigences + procédure d’évaluation
de la conformité ex-ante
Interdit
Systèmes d’IA à haut risque
Nouvelles législations
d’harmonisation UE
(annexe II, section A)
Autres législations
d’harmonisation UE
(annexe II, section B)
Domaines spécifiques
(annexe III)
Produits ou composants de sécurité
d’un produit soumis à une évaluation
de la conformité par un tiers
conformément aux actes législatifs UE
concernant :
 dispositifs médicaux
 dispositifs médicaux de diagnostic
in vitro
 téléphériques
 jouets
 bateaux de plaisance et véhicules
nautiques à moteur
 ascenseurs
 machines
 équipements de protection
individuelle
 équipements sous pression
 équipements radio
 appareils à combustibles gazeux
 appareils et systèmes de protection
destinés à être utilisés en
atmosphères explosibles
Produits ou composants de sécurité d’un
produit soumis à une évaluation de la
conformité par un tiers conformément
aux actes législatifs UE concernant :
 véhicules à moteur et remorques
 véhicules agricoles et forestiers
 aviation civile
 marine
 véhicules à deux ou trois roues et
quadricycles
 rail
Limitation des dispositions applicables :
 art. 84 (évaluation et révision du
Règlement)
 art. 53 (bacs à sable réglementaires
en matières d’IA – “AI regulatory
sandboxes”) si les exigences relatives
aux systèmes d'IA à haut risque
prévues par le Règlement ont été
intégrées dans la législation
d'harmonisation UE concernée
 Certains systèmes biométriques
 Infrastructures critiques
 Education et formation
professionnelle
 Emploi, gestion de la main-d’œuvre
et accès à l’emploi indépendant
 Accès et droit aux services privés
essentiels, services publics et
prestation sociales
 Domaine répressif
 Gestion de la migration, de l’asile et
des contrôles aux frontières
 Administration de la justice et
processus démocratiques
EXCEPTION
risque significatif de préjudice pour la
santé, la sécurité ou les droits
fondamentaux des personnes physiques ;
et
profilage
ex. accomplissement d’une tâche
procédurale restreinte ou amélioration
du résultat d’une activité humaine
Systèmes et modèles d’IA à usage général
Système d’IA à usage général
 basé sur un modèle d'IA à usage général
 capable de répondre à des besoins
variés (pour une utilisation directe ou
pour une intégration dans d'autres
systèmes d’IA)
Modèle d’IA à usage général
 grande généralité
 capable d'exécuter de manière
compétente un large éventail de
tâches distinctes
 peut être intégré dans une variété de
systèmes ou d'applications en aval
Modèle d’IA à usage
général présentant
un risque systémique
si capacités d’impact élevées
(puissance de calcul dans
l’entraînement > 10^25 FLOPs
ou si désigné comme tel par
la Commission)
Acteurs concernés
Fournisseur
Mandataire
Importateur
Déployeur
Distributeur
Fabricant de
produit
 développe ou fait développer un système
d’IA/modèle d’IA à usage général et le met sur
le marché/en service sous son propre nom ou
sa propre marque
 mise sur le marché/en service dans l’UE ou hors
UE mais résultats (output) utilisés dans l’UE
 utilise un système d’IA sous sa propre
autorité
 établi/situé dans l’UE ou hors UE mais
résultats (output) utilisés dans l’UE
EXCEPTION : activité personnelle à
caractère non professionnel
Possible requalification en
fournisseur
met sur le marché/en service dans l’UE
un système d’IA avec son produit sous
son nom/sa marque
Principales obligations et sanctions
Amendes administratives : jusqu’à 15.000.000 € ou 3% du chiffre d’affaires annuel mondial
total réalisé au cours de l'exercice précédent (le montant le plus élevé étant retenu, sauf
pour les PME) en cas de non-respect de ces obligations
Systèmes d’IA à haut risque
Fournisseur :
 documentation technique
 systèmes de gestion des risques et de gestion
de la qualité
 gouvernance des données (qualité des
données d’entraînement)
 procédure d’évaluation de la conformité
 conservation des logs
 transparence et instructions d’utilisation
 obligations d’enregistrement
 …
Déployeur :
 usage conforme aux instructions d’utilisation
 supervision humaine (si contrôle sur système
d’IA)
 qualité des données d’entrée (si contrôle sur
ces données)
 analyse d’impact sur les droits fondamentaux
(dans certains cas)
 droit à l’explication des personnes affectées
(dans certains cas) si décision individuelle
 …
Modèles d’IA à usage général
 documentation technique
 collaboration avec le Bureau de l’IA (AI Office)
 …
Modèles d’IA à usage général présentant un
risque systémique
 + notification à la Commission européenne
 + évaluation du modèle en vue d’identifier et
d’atténuer le risque systémique
 + niveau adéquat de protection en matière
de cybersécurité
 …
Systèmes d’IA à risque limité
Obligations de transparence (ex. informer de
l’interaction avec un système d’IA, résultats
détectables comme étant artificiellement
générés/manipulés)
Application à notre fil conducteur
Logiciel de présélection des
candidats dans le cadre
d’une procédure de
recrutement
Système d’IA à
haut risque
(annexe III)
sauf si pas de risque
significatif de
préjudice pour la
santé, la sécurité ou
les droits
fondamentaux et pas
de profilage
Déployeur
Fournisseur
Quand ces règles seront-elles applicables ?
Dispositions relatives
aux systèmes d’IA à
risque inacceptable
E.V. + 6 mois
Dispositions relatives
aux modèles d’IA à
usage général
Sanctions
E.V. + 12 mois
Autres dispositions
E.V. + 24 mois
Obligations imposées
aux systèmes d’IA à
haut risque
E.V. + 36 mois
2. Quelle responsabilité pour les
systèmes d'IA ?
Problèmes clés
Lorsqu'un préjudice est subi à la
suite d'une décision prise par
une IA autonome :
• Qui doit être tenu
responsable de ce
dommage ?
• Comment établir le lien de
causalité ? Comment
fonctionne le système de
preuve ?
Instruments légaux en cours d'adoption
• Proposition de Directive du
28 septembre 2022 du
Parlement européen et du conseil
relative à l'adaptation des règles
en matière de responsabilité
civile extracontractuelle au
domaine de l'intelligence
artificielle (COM (2022) 496 final) ;
• Proposition de Directive du 28
septembre 2022 du Parlement
européen et du Conseil relative à
la responsabilité du fait des
produits défectueux (COM (2022)
495 final).
Directive sur la responsabilité en matière
d'IA
Champ d'application :
Art. 1.1 : La présente directive établit des
règles communes concernant:
(a) la divulgation d’éléments de preuve
sur les systèmes d’intelligence artificielle
(IA) à haut risque afin de permettre à un
demandeur d’étayer une action civile en
réparation de dommages causés par une
faute extracontractuelle ;
(b) la charge de la preuve en cas
d’actions civiles fondées sur une faute
extracontractuelle introduites devant les
juridictions nationales pour des dommages
causés par un système d’IA.
Définitions pertinentes
• Référence explicite au Règlement sur l'IA :
o "système d'IA" ;
o "système d'IA à haut risque" ;
o "fournisseur" ;
o "utilisateur ou déployeur" ;
• "devoir de vigilance" : norme de conduite requise,
fixée par le droit national ou le droit de l’Union, pour
éviter de porter atteinte aux intérêts juridiques reconnus
au niveau du droit national ou du droit de l’Union,
notamment la vie, l’intégrité physique, les biens et la
protection des droits fondamentaux.
Notre fil conducteur
Comment prouver la
discrimination à l'emploi ?
Besoin d'éléments de
preuve.
Possibilité de les demander
tant au fournisseur du
système d'IA (A) qu'au
déployeur (agence intérim)
(art. 3).
Si refus, possibilité de
demander au juge
d'ordonner la divulgation
des éléments de preuve
(art. 3).
Si refus persistant,
présomption de faute et de
lien causal (art. 3 et 4).
Précisions sur la présomption de lien causal
Présomption réfragable de lien causal entre la faute du défendeur et le
résultat produit par le système d'IA ou l'incapacité de celui-ci à produire
un résultat, lorsque les conditions suivantes sont réunies (art. 4.1) :
• Le demandeur a démontré ou la juridiction a présumé la faute du
défendeur consistant en un manquement à un devoir de vigilance ;
• Il est raisonnable de croire que la faute a influencé le résultat du
système d'IA ou l'incapacité de celui-ci à produire un résultat ;
• Le demandeur a démontré que le résultat du système d'IA ou
l'incapacité de celui-ci à un produire un résultat est à l'origine du
dommage.
3. Les résultats de systèmes d'IA peuvent-
ils être protégés par le droit d'auteur?
IA et droit d'auteur
Deux problématiques :
• Les contenus générés par l'IA (output) ;
• Les données utilisées par l'IA (input).
Contenus générés par IA
• Condition sine qua non de
protection en droit d'auteur
belge et européen : l'originalité
de l'œuvre.
• Œuvre originale au sens de la
jurisprudence belge et
européenne = œuvre qui reflète
la personnalité de l'auteur ;
l'auteur doit exprimer des choix
libres et créatifs et imprégner
l'œuvre de sa touche personnelle
(voyez notamment en ce sens : CJUE, 16 juillet
2009, C-5/08 Infopaq et CJUE, 1er décembre
2011, C-145/10, Painer).
Contenus générés par IA
• Contenu uniquement généré par IA : condition
d'originalité certainement pas rencontrée
• Contenu généré avec l'assistance d'une IA :
 Analyse au cas par cas
 Expression de la personnalité de l'auteur par des choix libres et
créatifs.
Jurisprudence US
• Création d'une bande dessinée
via Midjourney (IA générative) ;
• Protection au titre de "copyright"
conférée à la bande dessinée
par le US Copyright Office en
septembre 2022 ;
• Décision de révocation du US
Copyright Office en octobre
2022 car œuvre réalisée à l'aide
d'une IA ;
• Appel de la décision par l’artiste;
• Selon l'Office, l'auteur n'a pas
exercé un contrôle suffisant au
stade de l'exécution lors de la
création de l'œuvre.
Contenus utilisés par l'IA
• Besoin de nourrir l'IA par
diverses données
• Certaines données peuvent
être des œuvres protégées
par le droit d'auteur
• Alimenter l'IA avec des
œuvres protégées =
violation du droit de
reproduction
Contenus utilisés par l'IA
• Exception : fouille de textes et de données (art. XI.190, 20°
CDE)
• Limitations de l'exception :
 Uniquement objets protégés licitement accessibles ;
 Droit moral de l'auteur ;
 Possibilité d'opposition ;
 Atteinte à l'exploitation normale de l'œuvre.
AI ACT : références au droit d’auteur
Système d’IA à usage général, notamment les grands modèles
génératifs :
« Le développement et l'entraînement de ces modèles requièrent un
accès à de grandes quantités de texte, d'images, de vidéos et
d'autres données. Les techniques de fouille de textes et de données
peuvent être largement utilisées dans ce contexte pour extraire et
analyser ces contenus, qui peuvent être protégés par le droit
d'auteur et les droits voisins. » (considérant 105)
Obligations pour le fournisseur (art. 53) :
• Mise en place d’une politique visant à respecter la législation sur
le droit d’auteur et les droits voisins
• Rédaction et mise à disposition du public un résumé suffisamment
détaillé du contenu utilisé pour entraîner le modèle d'IA à usage
général
Exemple : action du New York Times contre ChatGPT
• L’utilisation et la copie non
autorisée de contenus du
quotidien notamment durant « l ’
entrainement » de ChatGPT.
• La reproduction d'articles du New
York Times lorsque l'utilisateur le
demande explicitement.
• La présence d’« Hallucinations»
imputée erronément au New York
Times.
NYT_Complaint_Dec2023.pdf
(nytimes.com)
Notre fil conducteur
Logiciel de présélection des
candidats dans le cadre
d’une procédure de
recrutement
• Génération de
questionnaires pour filtrer
les candidatures pourrait
être constitutif d’une
violation du droit d’auteur
Pour aller plus loin…
Si vous cherchez un partenaire juridique de confiance pour
accompagner vos projets IA, contactez l’équipe Lexing !
DÉCOUVREZ NOS RESSOURCES GRATUITES SUR NOTRE SITE
 Intelligence artificielle - Lexing
Nos prochaines formations earlegal
Vendredi 26 avril : Expropriation et dépollution en Wallonie : comment
réagir ?
 earlegal - Expropriation et dépollution en Wallonie : comment réagir
? Billets, Le ven 26 avr. 2024 à 08:30 | Eventbrite
Vendredi 24 mai : La protection du consommateur liée au numérique :
les nouveautés ?
 earlegal- La protection du consommateur liée au numérique: les
nouveautés ? Billets, Le ven 24 mai 2024 à 08:30 | Eventbrite
Merci pour
votre attention !
Des questions ?
Thank you for
your attention!
Do you have any
questions?

Contenu connexe

Similaire à earlegal #11 - IA en plein essor : réinventer le droit pour un cadre adapté ?

L’authentification à l’Ère des grandes ruptures technologiques, un Virage à p...
L’authentification à l’Ère des grandes ruptures technologiques, un Virage à p...L’authentification à l’Ère des grandes ruptures technologiques, un Virage à p...
L’authentification à l’Ère des grandes ruptures technologiques, un Virage à p...Identity Days
 
Test slideshare
Test slideshareTest slideshare
Test slideshareAgroData
 
Advanced persistent threat = émergence du simple vandalisme au cybercrimine...
Advanced persistent threat =  émergence du simple vandalisme au cybercrimine...Advanced persistent threat =  émergence du simple vandalisme au cybercrimine...
Advanced persistent threat = émergence du simple vandalisme au cybercrimine...ITrust - Cybersecurity as a Service
 
Normation solutions linux automatisation si complexes
Normation solutions linux automatisation si complexesNormation solutions linux automatisation si complexes
Normation solutions linux automatisation si complexesRUDDER
 
Machine Learning & Interpretabilité
Machine Learning & InterpretabilitéMachine Learning & Interpretabilité
Machine Learning & InterpretabilitéJasmine Anteunis
 
ESTEM5A PART 1 POLITIQUE DE securite informatique.ppt
ESTEM5A PART 1  POLITIQUE DE  securite informatique.pptESTEM5A PART 1  POLITIQUE DE  securite informatique.ppt
ESTEM5A PART 1 POLITIQUE DE securite informatique.pptNourAkka1
 
Cours guvernance des systèmes d'information partie 1 prof. Khalifa MANSOURI
Cours guvernance des systèmes d'information partie 1 prof. Khalifa MANSOURICours guvernance des systèmes d'information partie 1 prof. Khalifa MANSOURI
Cours guvernance des systèmes d'information partie 1 prof. Khalifa MANSOURIMansouri Khalifa
 
Nos systèmes : dossier de partenariat
Nos systèmes : dossier de partenariatNos systèmes : dossier de partenariat
Nos systèmes : dossier de partenariatFing
 
Comment appliquer le principe du Privacy By Design
Comment appliquer le principe du Privacy By DesignComment appliquer le principe du Privacy By Design
Comment appliquer le principe du Privacy By DesignThierry RAMARD
 
Audit Des Systemes d_Information.pdf
Audit Des Systemes d_Information.pdfAudit Des Systemes d_Information.pdf
Audit Des Systemes d_Information.pdfTAFEMBLANC
 
Lexpresse de la Banque Postale - Privacy et Big Data
Lexpresse de la Banque Postale - Privacy et Big DataLexpresse de la Banque Postale - Privacy et Big Data
Lexpresse de la Banque Postale - Privacy et Big DataAntoine Vigneron
 
Big data et assurance
Big data et assuranceBig data et assurance
Big data et assuranceMan Manur
 
Introduction Mobile Gov
Introduction Mobile GovIntroduction Mobile Gov
Introduction Mobile GovFinancialVideo
 
La protection de la vie privée à l'heure du BIG DATA
La protection de la vie privée à l'heure du BIG DATALa protection de la vie privée à l'heure du BIG DATA
La protection de la vie privée à l'heure du BIG DATAISACA Chapitre de Québec
 
Securité et gouvernance da
Securité et gouvernance daSecurité et gouvernance da
Securité et gouvernance daCloudAcademy
 
Formation M2i - Cadre réglementaire des IA Génératives : premiers éléments de...
Formation M2i - Cadre réglementaire des IA Génératives : premiers éléments de...Formation M2i - Cadre réglementaire des IA Génératives : premiers éléments de...
Formation M2i - Cadre réglementaire des IA Génératives : premiers éléments de...M2i Formation
 
HIT 2017 - ASIP Santé - Atelier N°3 Règlement européen sur la protection des ...
HIT 2017 - ASIP Santé - Atelier N°3 Règlement européen sur la protection des ...HIT 2017 - ASIP Santé - Atelier N°3 Règlement européen sur la protection des ...
HIT 2017 - ASIP Santé - Atelier N°3 Règlement européen sur la protection des ...ASIP Santé
 
Guide d'hygiène informatique - ANSSI - 2014
Guide d'hygiène informatique - ANSSI - 2014 Guide d'hygiène informatique - ANSSI - 2014
Guide d'hygiène informatique - ANSSI - 2014 polenumerique33
 

Similaire à earlegal #11 - IA en plein essor : réinventer le droit pour un cadre adapté ? (20)

L’authentification à l’Ère des grandes ruptures technologiques, un Virage à p...
L’authentification à l’Ère des grandes ruptures technologiques, un Virage à p...L’authentification à l’Ère des grandes ruptures technologiques, un Virage à p...
L’authentification à l’Ère des grandes ruptures technologiques, un Virage à p...
 
Test slideshare
Test slideshareTest slideshare
Test slideshare
 
Advanced persistent threat = émergence du simple vandalisme au cybercrimine...
Advanced persistent threat =  émergence du simple vandalisme au cybercrimine...Advanced persistent threat =  émergence du simple vandalisme au cybercrimine...
Advanced persistent threat = émergence du simple vandalisme au cybercrimine...
 
Normation solutions linux automatisation si complexes
Normation solutions linux automatisation si complexesNormation solutions linux automatisation si complexes
Normation solutions linux automatisation si complexes
 
Ageris software 2016
Ageris software 2016Ageris software 2016
Ageris software 2016
 
Machine Learning & Interpretabilité
Machine Learning & InterpretabilitéMachine Learning & Interpretabilité
Machine Learning & Interpretabilité
 
Internet Of Things Security
Internet Of Things SecurityInternet Of Things Security
Internet Of Things Security
 
ESTEM5A PART 1 POLITIQUE DE securite informatique.ppt
ESTEM5A PART 1  POLITIQUE DE  securite informatique.pptESTEM5A PART 1  POLITIQUE DE  securite informatique.ppt
ESTEM5A PART 1 POLITIQUE DE securite informatique.ppt
 
Cours guvernance des systèmes d'information partie 1 prof. Khalifa MANSOURI
Cours guvernance des systèmes d'information partie 1 prof. Khalifa MANSOURICours guvernance des systèmes d'information partie 1 prof. Khalifa MANSOURI
Cours guvernance des systèmes d'information partie 1 prof. Khalifa MANSOURI
 
Nos systèmes : dossier de partenariat
Nos systèmes : dossier de partenariatNos systèmes : dossier de partenariat
Nos systèmes : dossier de partenariat
 
Comment appliquer le principe du Privacy By Design
Comment appliquer le principe du Privacy By DesignComment appliquer le principe du Privacy By Design
Comment appliquer le principe du Privacy By Design
 
Audit Des Systemes d_Information.pdf
Audit Des Systemes d_Information.pdfAudit Des Systemes d_Information.pdf
Audit Des Systemes d_Information.pdf
 
Lexpresse de la Banque Postale - Privacy et Big Data
Lexpresse de la Banque Postale - Privacy et Big DataLexpresse de la Banque Postale - Privacy et Big Data
Lexpresse de la Banque Postale - Privacy et Big Data
 
Big data et assurance
Big data et assuranceBig data et assurance
Big data et assurance
 
Introduction Mobile Gov
Introduction Mobile GovIntroduction Mobile Gov
Introduction Mobile Gov
 
La protection de la vie privée à l'heure du BIG DATA
La protection de la vie privée à l'heure du BIG DATALa protection de la vie privée à l'heure du BIG DATA
La protection de la vie privée à l'heure du BIG DATA
 
Securité et gouvernance da
Securité et gouvernance daSecurité et gouvernance da
Securité et gouvernance da
 
Formation M2i - Cadre réglementaire des IA Génératives : premiers éléments de...
Formation M2i - Cadre réglementaire des IA Génératives : premiers éléments de...Formation M2i - Cadre réglementaire des IA Génératives : premiers éléments de...
Formation M2i - Cadre réglementaire des IA Génératives : premiers éléments de...
 
HIT 2017 - ASIP Santé - Atelier N°3 Règlement européen sur la protection des ...
HIT 2017 - ASIP Santé - Atelier N°3 Règlement européen sur la protection des ...HIT 2017 - ASIP Santé - Atelier N°3 Règlement européen sur la protection des ...
HIT 2017 - ASIP Santé - Atelier N°3 Règlement européen sur la protection des ...
 
Guide d'hygiène informatique - ANSSI - 2014
Guide d'hygiène informatique - ANSSI - 2014 Guide d'hygiène informatique - ANSSI - 2014
Guide d'hygiène informatique - ANSSI - 2014
 

Plus de Lexing - Belgium

Earlegal #11 - BIM et Smartbuilding : comment concilier les briques et les cl...
Earlegal #11 - BIM et Smartbuilding : comment concilier les briques et les cl...Earlegal #11 - BIM et Smartbuilding : comment concilier les briques et les cl...
Earlegal #11 - BIM et Smartbuilding : comment concilier les briques et les cl...Lexing - Belgium
 
earlegal #11 - Le droit de la distribution et les coopérations entre entrepri...
earlegal #11 - Le droit de la distribution et les coopérations entre entrepri...earlegal #11 - Le droit de la distribution et les coopérations entre entrepri...
earlegal #11 - Le droit de la distribution et les coopérations entre entrepri...Lexing - Belgium
 
earlegal #11 - Imprévus sur chantier en MP - comment s'adapter ?
earlegal #11 - Imprévus sur chantier en MP - comment s'adapter ?earlegal #11 - Imprévus sur chantier en MP - comment s'adapter ?
earlegal #11 - Imprévus sur chantier en MP - comment s'adapter ?Lexing - Belgium
 
Earlegal #11 - Cybersécurité : quels défis pour votre entreprise ?
Earlegal #11 -  Cybersécurité : quels défis pour votre entreprise ?Earlegal #11 -  Cybersécurité : quels défis pour votre entreprise ?
Earlegal #11 - Cybersécurité : quels défis pour votre entreprise ?Lexing - Belgium
 
earlegal #11 - Innover dans l'immobilier : comment transformer un immeuble en...
earlegal #11 - Innover dans l'immobilier : comment transformer un immeuble en...earlegal #11 - Innover dans l'immobilier : comment transformer un immeuble en...
earlegal #11 - Innover dans l'immobilier : comment transformer un immeuble en...Lexing - Belgium
 
Earlegal #11 - Techno-sécurité : données biométriques et reconnaissance faciale
Earlegal #11 - Techno-sécurité : données biométriques et reconnaissance facialeEarlegal #11 - Techno-sécurité : données biométriques et reconnaissance faciale
Earlegal #11 - Techno-sécurité : données biométriques et reconnaissance facialeLexing - Belgium
 
earlegal – Comment tirer parti des règlements DSA/DMA ?
earlegal – Comment tirer parti des règlements DSA/DMA ?earlegal – Comment tirer parti des règlements DSA/DMA ?
earlegal – Comment tirer parti des règlements DSA/DMA ?Lexing - Belgium
 
RGPD : 5 ans après, quel bilan ? L’APD de plus en plus sévère : zoom sur les ...
RGPD : 5 ans après, quel bilan ? L’APD de plus en plus sévère : zoom sur les ...RGPD : 5 ans après, quel bilan ? L’APD de plus en plus sévère : zoom sur les ...
RGPD : 5 ans après, quel bilan ? L’APD de plus en plus sévère : zoom sur les ...Lexing - Belgium
 
earlegal#10 - Difficultés financières d’un sous-traitant, quelles précautions ?
earlegal#10 - Difficultés financières d’un sous-traitant, quelles précautions ?earlegal#10 - Difficultés financières d’un sous-traitant, quelles précautions ?
earlegal#10 - Difficultés financières d’un sous-traitant, quelles précautions ?Lexing - Belgium
 
earlegal#10 - Infractions urbanistiques en RW - Comment en sortir ?
earlegal#10 - Infractions urbanistiques en RW - Comment en sortir ?earlegal#10 - Infractions urbanistiques en RW - Comment en sortir ?
earlegal#10 - Infractions urbanistiques en RW - Comment en sortir ?Lexing - Belgium
 
earlegal#10 - Comment se préparer à un contrôle de l'Autorité de protection d...
earlegal#10 - Comment se préparer à un contrôle de l'Autorité de protection d...earlegal#10 - Comment se préparer à un contrôle de l'Autorité de protection d...
earlegal#10 - Comment se préparer à un contrôle de l'Autorité de protection d...Lexing - Belgium
 
Earlegal #10 - nouveau Code civil - impact en droit de la construction - 16 d...
Earlegal #10 - nouveau Code civil - impact en droit de la construction - 16 d...Earlegal #10 - nouveau Code civil - impact en droit de la construction - 16 d...
Earlegal #10 - nouveau Code civil - impact en droit de la construction - 16 d...Lexing - Belgium
 
earlegal#10 - Open Source : Quelles sont les bonnes pratiques ? - 18 novembre...
earlegal#10 - Open Source : Quelles sont les bonnes pratiques ? - 18 novembre...earlegal#10 - Open Source : Quelles sont les bonnes pratiques ? - 18 novembre...
earlegal#10 - Open Source : Quelles sont les bonnes pratiques ? - 18 novembre...Lexing - Belgium
 
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...Lexing - Belgium
 
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...Lexing - Belgium
 
Earlegal #10 - attribution de marchés publics - 4 questions - 16 septembre 2...
Earlegal #10 - attribution de marchés publics - 4 questions  - 16 septembre 2...Earlegal #10 - attribution de marchés publics - 4 questions  - 16 septembre 2...
Earlegal #10 - attribution de marchés publics - 4 questions - 16 septembre 2...Lexing - Belgium
 
earlegal#9 - RGPD : Comment réaliser une analyse d impact.pptx
earlegal#9 - RGPD : Comment réaliser une analyse d impact.pptxearlegal#9 - RGPD : Comment réaliser une analyse d impact.pptx
earlegal#9 - RGPD : Comment réaliser une analyse d impact.pptxLexing - Belgium
 
earlegal #9 - « Tout augmente ma bonne dame ! » - Comment adapter les prix da...
earlegal #9 - « Tout augmente ma bonne dame ! » - Comment adapter les prix da...earlegal #9 - « Tout augmente ma bonne dame ! » - Comment adapter les prix da...
earlegal #9 - « Tout augmente ma bonne dame ! » - Comment adapter les prix da...Lexing - Belgium
 
earlegal #9 - Marketing digital - vérifiez la conformité RGPD de vos campagnes
earlegal #9 - Marketing digital - vérifiez la conformité RGPD de vos campagnesearlegal #9 - Marketing digital - vérifiez la conformité RGPD de vos campagnes
earlegal #9 - Marketing digital - vérifiez la conformité RGPD de vos campagnesLexing - Belgium
 
earlegal #9 - Comment faire face à des problèmes d’exécution (marché public) ?
earlegal #9 - Comment faire face à des problèmes d’exécution (marché public) ?earlegal #9 - Comment faire face à des problèmes d’exécution (marché public) ?
earlegal #9 - Comment faire face à des problèmes d’exécution (marché public) ?Lexing - Belgium
 

Plus de Lexing - Belgium (20)

Earlegal #11 - BIM et Smartbuilding : comment concilier les briques et les cl...
Earlegal #11 - BIM et Smartbuilding : comment concilier les briques et les cl...Earlegal #11 - BIM et Smartbuilding : comment concilier les briques et les cl...
Earlegal #11 - BIM et Smartbuilding : comment concilier les briques et les cl...
 
earlegal #11 - Le droit de la distribution et les coopérations entre entrepri...
earlegal #11 - Le droit de la distribution et les coopérations entre entrepri...earlegal #11 - Le droit de la distribution et les coopérations entre entrepri...
earlegal #11 - Le droit de la distribution et les coopérations entre entrepri...
 
earlegal #11 - Imprévus sur chantier en MP - comment s'adapter ?
earlegal #11 - Imprévus sur chantier en MP - comment s'adapter ?earlegal #11 - Imprévus sur chantier en MP - comment s'adapter ?
earlegal #11 - Imprévus sur chantier en MP - comment s'adapter ?
 
Earlegal #11 - Cybersécurité : quels défis pour votre entreprise ?
Earlegal #11 -  Cybersécurité : quels défis pour votre entreprise ?Earlegal #11 -  Cybersécurité : quels défis pour votre entreprise ?
Earlegal #11 - Cybersécurité : quels défis pour votre entreprise ?
 
earlegal #11 - Innover dans l'immobilier : comment transformer un immeuble en...
earlegal #11 - Innover dans l'immobilier : comment transformer un immeuble en...earlegal #11 - Innover dans l'immobilier : comment transformer un immeuble en...
earlegal #11 - Innover dans l'immobilier : comment transformer un immeuble en...
 
Earlegal #11 - Techno-sécurité : données biométriques et reconnaissance faciale
Earlegal #11 - Techno-sécurité : données biométriques et reconnaissance facialeEarlegal #11 - Techno-sécurité : données biométriques et reconnaissance faciale
Earlegal #11 - Techno-sécurité : données biométriques et reconnaissance faciale
 
earlegal – Comment tirer parti des règlements DSA/DMA ?
earlegal – Comment tirer parti des règlements DSA/DMA ?earlegal – Comment tirer parti des règlements DSA/DMA ?
earlegal – Comment tirer parti des règlements DSA/DMA ?
 
RGPD : 5 ans après, quel bilan ? L’APD de plus en plus sévère : zoom sur les ...
RGPD : 5 ans après, quel bilan ? L’APD de plus en plus sévère : zoom sur les ...RGPD : 5 ans après, quel bilan ? L’APD de plus en plus sévère : zoom sur les ...
RGPD : 5 ans après, quel bilan ? L’APD de plus en plus sévère : zoom sur les ...
 
earlegal#10 - Difficultés financières d’un sous-traitant, quelles précautions ?
earlegal#10 - Difficultés financières d’un sous-traitant, quelles précautions ?earlegal#10 - Difficultés financières d’un sous-traitant, quelles précautions ?
earlegal#10 - Difficultés financières d’un sous-traitant, quelles précautions ?
 
earlegal#10 - Infractions urbanistiques en RW - Comment en sortir ?
earlegal#10 - Infractions urbanistiques en RW - Comment en sortir ?earlegal#10 - Infractions urbanistiques en RW - Comment en sortir ?
earlegal#10 - Infractions urbanistiques en RW - Comment en sortir ?
 
earlegal#10 - Comment se préparer à un contrôle de l'Autorité de protection d...
earlegal#10 - Comment se préparer à un contrôle de l'Autorité de protection d...earlegal#10 - Comment se préparer à un contrôle de l'Autorité de protection d...
earlegal#10 - Comment se préparer à un contrôle de l'Autorité de protection d...
 
Earlegal #10 - nouveau Code civil - impact en droit de la construction - 16 d...
Earlegal #10 - nouveau Code civil - impact en droit de la construction - 16 d...Earlegal #10 - nouveau Code civil - impact en droit de la construction - 16 d...
Earlegal #10 - nouveau Code civil - impact en droit de la construction - 16 d...
 
earlegal#10 - Open Source : Quelles sont les bonnes pratiques ? - 18 novembre...
earlegal#10 - Open Source : Quelles sont les bonnes pratiques ? - 18 novembre...earlegal#10 - Open Source : Quelles sont les bonnes pratiques ? - 18 novembre...
earlegal#10 - Open Source : Quelles sont les bonnes pratiques ? - 18 novembre...
 
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
 
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
earlegal#10 - Cookies - Comment ne pas commettre de faux pas - 14 octobre 202...
 
Earlegal #10 - attribution de marchés publics - 4 questions - 16 septembre 2...
Earlegal #10 - attribution de marchés publics - 4 questions  - 16 septembre 2...Earlegal #10 - attribution de marchés publics - 4 questions  - 16 septembre 2...
Earlegal #10 - attribution de marchés publics - 4 questions - 16 septembre 2...
 
earlegal#9 - RGPD : Comment réaliser une analyse d impact.pptx
earlegal#9 - RGPD : Comment réaliser une analyse d impact.pptxearlegal#9 - RGPD : Comment réaliser une analyse d impact.pptx
earlegal#9 - RGPD : Comment réaliser une analyse d impact.pptx
 
earlegal #9 - « Tout augmente ma bonne dame ! » - Comment adapter les prix da...
earlegal #9 - « Tout augmente ma bonne dame ! » - Comment adapter les prix da...earlegal #9 - « Tout augmente ma bonne dame ! » - Comment adapter les prix da...
earlegal #9 - « Tout augmente ma bonne dame ! » - Comment adapter les prix da...
 
earlegal #9 - Marketing digital - vérifiez la conformité RGPD de vos campagnes
earlegal #9 - Marketing digital - vérifiez la conformité RGPD de vos campagnesearlegal #9 - Marketing digital - vérifiez la conformité RGPD de vos campagnes
earlegal #9 - Marketing digital - vérifiez la conformité RGPD de vos campagnes
 
earlegal #9 - Comment faire face à des problèmes d’exécution (marché public) ?
earlegal #9 - Comment faire face à des problèmes d’exécution (marché public) ?earlegal #9 - Comment faire face à des problèmes d’exécution (marché public) ?
earlegal #9 - Comment faire face à des problèmes d’exécution (marché public) ?
 

earlegal #11 - IA en plein essor : réinventer le droit pour un cadre adapté ?

  • 1. ALL OVER THE WORLD IA en plein essor : réinventer le droit pour un cadre adapté ? 22 mars 2024 Alexandre CRUQUENAIRE, Anne-Valentine RENSONNET, Chloé ANTOINE & Quentin BEBRONNE
  • 3. AI HUB by Larcier-Intersentia
  • 4. Introduction et plan de la présentation 1. Quelles sont les règles applicables aux systèmes d’IA ? 2. Quelle responsabilité pour les systèmes d’IA ? 3. Les résultats des systèmes d’IA peuvent-ils être protégés par le droit d’auteur ?
  • 5. Notre fil conducteur Logiciel de présélection des candidats dans le cadre d’une procédure de recrutement
  • 6. Sondage Est-ce que vous avez déjà défini une politique interne concernant l’utilisation d’outils basés sur l’IA ? • OUI • NON
  • 7. Règlement sur l’IA (« AI Act ») Texte de compromis du 26 janvier 2024 1. Quelles sont les règles applicables aux systèmes d’IA ?
  • 8. Qu’est-ce qu’un « système d’IA »? qui est conçu pour fonctionner avec différents niveaux d’autonomie qui peut s'adapter après son déploiement qui, pour des objectifs explicites ou implicites, déduit*, à partir des données qu’il reçoit (input), comment générer des résultats (output) tels que :  des prédictions  des recommandations  du contenu  des décisions qui peuvent influencer des environnements physiques ou virtuels Système basé sur une machine ET * capacité de déduction résultant de techniques comme le machine learning et les approches basées sur la logique et les connaissances
  • 9. Quels systèmes d’IA sont réglementés ? EXCLUSIONS Activités hors du champ d’application du droit de l’Union (en particulier : sécurité nationale, militaire et défense) Systèmes/modèles d’IA spécifiquement développés et mis en service pour la seule fin de recherche et développement scientifiques Activités de recherche, de test et de développement concernant les systèmes/modèles d’IA avant leur mise sur le marché/en service (sauf les activités de test en conditions réelles) Si licences libres et open source : limitation des obligations pour modèles d’IA à usage général et composants d’IA utilisés/intégrés dans un système d’IA à haut risque Logique cumulative Approche fondée sur le risque Systèmes et modèles d’IA à usage général
  • 10. Classification des systèmes d’IA – approche fondée sur le risque Risque inacceptable Haut risque Risque limité Risque minimal • Exploitation des vulnérabilités (âge, handicap, situation sociale/économique) d’un groupe spécifique • Notation sociale conduisant à un traitement préjudiciable ou défavorable • Catégorisation biométrique en vue de déduire/inférer des informations sensibles (opinions politiques, « race », appartenance à un syndicat, religion, croyances philosophiques, vie sexuelle, orientation sexuelle) • … • Systèmes interagissant avec des humains (ex. chatbots) • Systèmes générant du contenu synthétique (contenu audio, image, vidéo ou texte) • Systèmes de reconnaissance des émotions • Systèmes de catégorisation biométrique • Systèmes générant ou manipulant du contenu (deep fakes) Catégorie résiduelle (ex. filtres anti-spam) Pas d’obligations Obligations de transparence Exigences + procédure d’évaluation de la conformité ex-ante Interdit
  • 11. Systèmes d’IA à haut risque Nouvelles législations d’harmonisation UE (annexe II, section A) Autres législations d’harmonisation UE (annexe II, section B) Domaines spécifiques (annexe III) Produits ou composants de sécurité d’un produit soumis à une évaluation de la conformité par un tiers conformément aux actes législatifs UE concernant :  dispositifs médicaux  dispositifs médicaux de diagnostic in vitro  téléphériques  jouets  bateaux de plaisance et véhicules nautiques à moteur  ascenseurs  machines  équipements de protection individuelle  équipements sous pression  équipements radio  appareils à combustibles gazeux  appareils et systèmes de protection destinés à être utilisés en atmosphères explosibles Produits ou composants de sécurité d’un produit soumis à une évaluation de la conformité par un tiers conformément aux actes législatifs UE concernant :  véhicules à moteur et remorques  véhicules agricoles et forestiers  aviation civile  marine  véhicules à deux ou trois roues et quadricycles  rail Limitation des dispositions applicables :  art. 84 (évaluation et révision du Règlement)  art. 53 (bacs à sable réglementaires en matières d’IA – “AI regulatory sandboxes”) si les exigences relatives aux systèmes d'IA à haut risque prévues par le Règlement ont été intégrées dans la législation d'harmonisation UE concernée  Certains systèmes biométriques  Infrastructures critiques  Education et formation professionnelle  Emploi, gestion de la main-d’œuvre et accès à l’emploi indépendant  Accès et droit aux services privés essentiels, services publics et prestation sociales  Domaine répressif  Gestion de la migration, de l’asile et des contrôles aux frontières  Administration de la justice et processus démocratiques EXCEPTION risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques ; et profilage ex. accomplissement d’une tâche procédurale restreinte ou amélioration du résultat d’une activité humaine
  • 12. Systèmes et modèles d’IA à usage général Système d’IA à usage général  basé sur un modèle d'IA à usage général  capable de répondre à des besoins variés (pour une utilisation directe ou pour une intégration dans d'autres systèmes d’IA) Modèle d’IA à usage général  grande généralité  capable d'exécuter de manière compétente un large éventail de tâches distinctes  peut être intégré dans une variété de systèmes ou d'applications en aval Modèle d’IA à usage général présentant un risque systémique si capacités d’impact élevées (puissance de calcul dans l’entraînement > 10^25 FLOPs ou si désigné comme tel par la Commission)
  • 13. Acteurs concernés Fournisseur Mandataire Importateur Déployeur Distributeur Fabricant de produit  développe ou fait développer un système d’IA/modèle d’IA à usage général et le met sur le marché/en service sous son propre nom ou sa propre marque  mise sur le marché/en service dans l’UE ou hors UE mais résultats (output) utilisés dans l’UE  utilise un système d’IA sous sa propre autorité  établi/situé dans l’UE ou hors UE mais résultats (output) utilisés dans l’UE EXCEPTION : activité personnelle à caractère non professionnel Possible requalification en fournisseur met sur le marché/en service dans l’UE un système d’IA avec son produit sous son nom/sa marque
  • 14. Principales obligations et sanctions Amendes administratives : jusqu’à 15.000.000 € ou 3% du chiffre d’affaires annuel mondial total réalisé au cours de l'exercice précédent (le montant le plus élevé étant retenu, sauf pour les PME) en cas de non-respect de ces obligations Systèmes d’IA à haut risque Fournisseur :  documentation technique  systèmes de gestion des risques et de gestion de la qualité  gouvernance des données (qualité des données d’entraînement)  procédure d’évaluation de la conformité  conservation des logs  transparence et instructions d’utilisation  obligations d’enregistrement  … Déployeur :  usage conforme aux instructions d’utilisation  supervision humaine (si contrôle sur système d’IA)  qualité des données d’entrée (si contrôle sur ces données)  analyse d’impact sur les droits fondamentaux (dans certains cas)  droit à l’explication des personnes affectées (dans certains cas) si décision individuelle  … Modèles d’IA à usage général  documentation technique  collaboration avec le Bureau de l’IA (AI Office)  … Modèles d’IA à usage général présentant un risque systémique  + notification à la Commission européenne  + évaluation du modèle en vue d’identifier et d’atténuer le risque systémique  + niveau adéquat de protection en matière de cybersécurité  … Systèmes d’IA à risque limité Obligations de transparence (ex. informer de l’interaction avec un système d’IA, résultats détectables comme étant artificiellement générés/manipulés)
  • 15. Application à notre fil conducteur Logiciel de présélection des candidats dans le cadre d’une procédure de recrutement Système d’IA à haut risque (annexe III) sauf si pas de risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux et pas de profilage Déployeur Fournisseur
  • 16. Quand ces règles seront-elles applicables ? Dispositions relatives aux systèmes d’IA à risque inacceptable E.V. + 6 mois Dispositions relatives aux modèles d’IA à usage général Sanctions E.V. + 12 mois Autres dispositions E.V. + 24 mois Obligations imposées aux systèmes d’IA à haut risque E.V. + 36 mois
  • 17. 2. Quelle responsabilité pour les systèmes d'IA ?
  • 18. Problèmes clés Lorsqu'un préjudice est subi à la suite d'une décision prise par une IA autonome : • Qui doit être tenu responsable de ce dommage ? • Comment établir le lien de causalité ? Comment fonctionne le système de preuve ?
  • 19. Instruments légaux en cours d'adoption • Proposition de Directive du 28 septembre 2022 du Parlement européen et du conseil relative à l'adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l'intelligence artificielle (COM (2022) 496 final) ; • Proposition de Directive du 28 septembre 2022 du Parlement européen et du Conseil relative à la responsabilité du fait des produits défectueux (COM (2022) 495 final).
  • 20. Directive sur la responsabilité en matière d'IA Champ d'application : Art. 1.1 : La présente directive établit des règles communes concernant: (a) la divulgation d’éléments de preuve sur les systèmes d’intelligence artificielle (IA) à haut risque afin de permettre à un demandeur d’étayer une action civile en réparation de dommages causés par une faute extracontractuelle ; (b) la charge de la preuve en cas d’actions civiles fondées sur une faute extracontractuelle introduites devant les juridictions nationales pour des dommages causés par un système d’IA.
  • 21. Définitions pertinentes • Référence explicite au Règlement sur l'IA : o "système d'IA" ; o "système d'IA à haut risque" ; o "fournisseur" ; o "utilisateur ou déployeur" ; • "devoir de vigilance" : norme de conduite requise, fixée par le droit national ou le droit de l’Union, pour éviter de porter atteinte aux intérêts juridiques reconnus au niveau du droit national ou du droit de l’Union, notamment la vie, l’intégrité physique, les biens et la protection des droits fondamentaux.
  • 22. Notre fil conducteur Comment prouver la discrimination à l'emploi ? Besoin d'éléments de preuve. Possibilité de les demander tant au fournisseur du système d'IA (A) qu'au déployeur (agence intérim) (art. 3). Si refus, possibilité de demander au juge d'ordonner la divulgation des éléments de preuve (art. 3). Si refus persistant, présomption de faute et de lien causal (art. 3 et 4).
  • 23. Précisions sur la présomption de lien causal Présomption réfragable de lien causal entre la faute du défendeur et le résultat produit par le système d'IA ou l'incapacité de celui-ci à produire un résultat, lorsque les conditions suivantes sont réunies (art. 4.1) : • Le demandeur a démontré ou la juridiction a présumé la faute du défendeur consistant en un manquement à un devoir de vigilance ; • Il est raisonnable de croire que la faute a influencé le résultat du système d'IA ou l'incapacité de celui-ci à produire un résultat ; • Le demandeur a démontré que le résultat du système d'IA ou l'incapacité de celui-ci à un produire un résultat est à l'origine du dommage.
  • 24. 3. Les résultats de systèmes d'IA peuvent- ils être protégés par le droit d'auteur?
  • 25. IA et droit d'auteur Deux problématiques : • Les contenus générés par l'IA (output) ; • Les données utilisées par l'IA (input).
  • 26. Contenus générés par IA • Condition sine qua non de protection en droit d'auteur belge et européen : l'originalité de l'œuvre. • Œuvre originale au sens de la jurisprudence belge et européenne = œuvre qui reflète la personnalité de l'auteur ; l'auteur doit exprimer des choix libres et créatifs et imprégner l'œuvre de sa touche personnelle (voyez notamment en ce sens : CJUE, 16 juillet 2009, C-5/08 Infopaq et CJUE, 1er décembre 2011, C-145/10, Painer).
  • 27. Contenus générés par IA • Contenu uniquement généré par IA : condition d'originalité certainement pas rencontrée • Contenu généré avec l'assistance d'une IA :  Analyse au cas par cas  Expression de la personnalité de l'auteur par des choix libres et créatifs.
  • 28. Jurisprudence US • Création d'une bande dessinée via Midjourney (IA générative) ; • Protection au titre de "copyright" conférée à la bande dessinée par le US Copyright Office en septembre 2022 ; • Décision de révocation du US Copyright Office en octobre 2022 car œuvre réalisée à l'aide d'une IA ; • Appel de la décision par l’artiste; • Selon l'Office, l'auteur n'a pas exercé un contrôle suffisant au stade de l'exécution lors de la création de l'œuvre.
  • 29. Contenus utilisés par l'IA • Besoin de nourrir l'IA par diverses données • Certaines données peuvent être des œuvres protégées par le droit d'auteur • Alimenter l'IA avec des œuvres protégées = violation du droit de reproduction
  • 30. Contenus utilisés par l'IA • Exception : fouille de textes et de données (art. XI.190, 20° CDE) • Limitations de l'exception :  Uniquement objets protégés licitement accessibles ;  Droit moral de l'auteur ;  Possibilité d'opposition ;  Atteinte à l'exploitation normale de l'œuvre.
  • 31. AI ACT : références au droit d’auteur Système d’IA à usage général, notamment les grands modèles génératifs : « Le développement et l'entraînement de ces modèles requièrent un accès à de grandes quantités de texte, d'images, de vidéos et d'autres données. Les techniques de fouille de textes et de données peuvent être largement utilisées dans ce contexte pour extraire et analyser ces contenus, qui peuvent être protégés par le droit d'auteur et les droits voisins. » (considérant 105) Obligations pour le fournisseur (art. 53) : • Mise en place d’une politique visant à respecter la législation sur le droit d’auteur et les droits voisins • Rédaction et mise à disposition du public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d'IA à usage général
  • 32. Exemple : action du New York Times contre ChatGPT • L’utilisation et la copie non autorisée de contenus du quotidien notamment durant « l ’ entrainement » de ChatGPT. • La reproduction d'articles du New York Times lorsque l'utilisateur le demande explicitement. • La présence d’« Hallucinations» imputée erronément au New York Times. NYT_Complaint_Dec2023.pdf (nytimes.com)
  • 33. Notre fil conducteur Logiciel de présélection des candidats dans le cadre d’une procédure de recrutement • Génération de questionnaires pour filtrer les candidatures pourrait être constitutif d’une violation du droit d’auteur
  • 34. Pour aller plus loin… Si vous cherchez un partenaire juridique de confiance pour accompagner vos projets IA, contactez l’équipe Lexing ! DÉCOUVREZ NOS RESSOURCES GRATUITES SUR NOTRE SITE  Intelligence artificielle - Lexing
  • 35. Nos prochaines formations earlegal Vendredi 26 avril : Expropriation et dépollution en Wallonie : comment réagir ?  earlegal - Expropriation et dépollution en Wallonie : comment réagir ? Billets, Le ven 26 avr. 2024 à 08:30 | Eventbrite Vendredi 24 mai : La protection du consommateur liée au numérique : les nouveautés ?  earlegal- La protection du consommateur liée au numérique: les nouveautés ? Billets, Le ven 24 mai 2024 à 08:30 | Eventbrite
  • 36. Merci pour votre attention ! Des questions ? Thank you for your attention! Do you have any questions?