1. Arnaud de MOISSAC
Co-fondateur et CEO de DCbrain
Membre du GT IA Responsable
Présentation des outils techniques de la boîte à outils
http://www.impact-ai.fr/outils-techniques/
Roxana : v-rorugi@microsoft.com Arnaud: arnaud@dcbrain.com
2. La boîte à outils pour une IA Responsable
http://www.impact-ai.fr/ia-responsable/
6. Entrainer des modèles explicables localement
LIME, SHAP, …
Les features importance sont différentes pour chaque cas : on cherche a expliquer chaque décision unitaire du modele
7. Vérifier que l’erreur est distribuée de façon équitable
nb=339
Predicted Yes Predicted No total
Yes 68 70,1% 29 29,9% 97
No 29 12,0% 213 88,0% 242
nb=161
Predicted Yes Predicted No total
Yes 11 61,1% 7 38,9% 18
No 4 2,8% 139 97,2% 143
Attribution de prêt :
Ici, l’erreur est toujours en défaveur des femmes
8. Valider que les résultats ne stigmatisent pas certaines catégories
Sélection de candidats par l’IA pour un emploi :
1. Anonymisation : pas d’info de genre
2. Stigmatisation des femmes :
→ la feature "continuité dans l’emploi" est
faussée*
*Est-ce vraiment une bonne idée d’utiliser une feature de continuité dans l’emploi ?