2. 公平性 | Fairness
2
公平性 @weblio
・・・偏ることなく,全てを同等に扱うこと
(さま)、主観を交えないこと(さま)
Fairness @Oxford Dictionary
--- the quality of treating people equally
or in a way that is reasonable
3. 現実に起きた問題
3
Amazon’s “holy grail” recruiting tool was
actually just biased against women
https://qz.com/1419228/amazons-ai-powered-recruiting-tool-was-biased-against-women/
Maybe Microsoft’s Tay AI didn’t have a meltdown…
https://medium.com/@thepathtochange/maybe-microsoft-s-tay-ai-didn-t-have-a-meltdown-
4291b910a37c
Google's Artificial Intelligence Hate Speech
Detector Is 'Racially Biased,' Study Finds
https://www.forbes.com/sites/nicolemartin1/2019/08/13/googles-artificial-intelligence-
hate-speech-detector-is-racially-biased/#1418e6d8326c
2020年現在のAI分野において,
未だ「解決された」とは⾔い難い状況
10. ML分野における公平性
10
Fairness in MLの論⽂数
● General Data Protection Regulation (GDPR)の施⾏を⽪切
りにMachine Learningの公平性に関する論⽂が急激に増加
https://towardsdatascience.com/a-tutorial-on-fairness-in-machine-learning-3ff8ba1040cb
16. Towards Fairer Datasets: Filtering and Balancing the Distribution
of the People Subtree in the ImageNet Hierarchy
16
会議 : ACM FAT* 2020
著者 : Kaiyu Yang, Klint Qinami, Li Fei-Fei, Jia Deng, Olga Russakovsky
● ImageNetのグループによるより公平なデータセットに向けた解析
● 特に⼈物に関する2,832カテゴリについてNon-safeと判断された1,593カ
テゴリ(約60万画像)を削除
現状スタンダードなデータセットも公平性の⾯で問題に
図はGender(男/⼥/不明),Skin Color(明/暗/中間),Ageごとに
割合を⽰したグラフ。データセット内に偏りがあることがわかる
17. Auditing ImageNet: Towards a Model-driven Framework for Annotating
Demographic Attributes of Large-Scale Image Datasets
17
会議 : CVPR 2019 Workshop
著者 : Chris Dulhanty, Alexander Wong
● 各データセットの男⼥⽐を⽐較
● ImageNetのサブセットに対してラベル付けを実⾏
○ ILSVRCの41.62%が⼥性,60歳以上は1.71%,15~29歳の男性は
全体の27.11%
● さらに,男⼥の割合が多い画像カテゴリをランク付け
データセットのGender Biasを確認
https://github.com/cdulhanty/ImageNet-Demo-Audit
ISLVRCʼ12(左)とImageNet ʻpersonʼ subset(右)の男⼥⽐をカウント
顔検出の信頼度が0.9以上の顔についてラベルづけ
18. Does Object Recognition Work for Everyone?
18
会議 : CVPR 2019 Workshop
著者 : Terrance DeVries, Ishan Misra, Changhan Wang, Laurens van der Maaten
● 世帯収⼊のラベルが付与されているDollar Street Images datasetを⽤い
て世帯収⼊別にオブジェクト認識精度をアノテーターにより評価
● ⾼収⼊世帯と低収⼊世帯では,同クラスでも外観や背景が異なるため精度
に差が⽣じる
世帯収⼊別でオブジェクト認識の精度に差が⽣じる
23. Discovering Fair Representations in the Data Domain
23
会議 : CVPR 2019
著者 : Novi Quadrianto, Viktoriia Sharmanska, Oliver Thomas
● センシティブ情報を排除して学習することを,元のデータから公正なデー
タへの変換タスクへと置き換えることで公平な表現を学習可能
● センシティブ情報を性別としてCelebAデータセットに適⽤した場合、ネ
ットワークは⽬と唇の領域を調整することで公平性を保つ
ソースドメインからターゲットドメインへのマッピングを学習
29. 29
会議 : FAT/ML 2018
著者 : Jakub Sliwinski, Martin Strobel, Yair Zick
● データの特性評価であるMonotone Influence Measures (MIM)の提案
● ラベル付きデータセットとデータポイントを⼊⼒し,任意の特徴マップが
クラス分類へどのように影響したかを評価
● 図は幸せそうな顔の画像例で,ポジティブな影響は⻘,ネガティブな影響
は⾚
● このベクトルに従って画像をシフトすると提案⼿法は笑顔を強調するよう
な発⽕
分野に精通した学者以外にも直観的に説明可能な評価
Axiomatic Characterization of Data-Driven Influence
Measures for Classification
30. 30
会議 : FAT/ML 2018
著者 : Hee Jung Ryu, Margaret Mitchell and Hartwig Adam
● Face Attribute Detectionにおいて,学習前に⼈⼝統計情報 (性別や⼈種)
を学習しておくことで、精度の保持または向上するアプローチ
● 潜在に含まれるユーザの、人口統計学的なプライバシーを保持しつつ、良
好な精度を獲得
統計情報を利⽤したFace Attribute Detection
InclusiveFaceNet: Improving Face Attribute Detection
with Race and Gender Diversity
31. Faceless Person Recognition: Privacy Implications in
Social Media
31
会議 : ECCV 2016
著者 : Seong Joon Oh, Rodrigo Benenson, Mario Fritz, Bernt Schiele
● 顔認識の秘匿化:推論時の顔にモザイクをかけた状態で認識ができるか
● PIPAデータセット(PhotoAlbumの顔画像)を⽤い上記シナリオを実⾏
● Blur > Black > Whiteの順で精度が良い(Visible 90%に対してBlurは約
85%くらい)
● Domain Shiftの有無/で⼤きく精度は変わる(ドメインが異なる顔認識は
20〜30%くらい)
プライバシーのみでなく,公平性にも有効か?
学習時はモザイクなし,テスト時はモザイクありで⼈物認証はど
の程度できるのか?
ブラーの他にも⿊/⽩
塗りつぶしを実施
32. Automated Facial Trait Judgment and Election
Outcome Prediction: Social Dimensions of Face
32
会議 : ICCV 2015
著者 : Jungseock Joo, Francis F. Steen, Song-Chun Zhu
● 顔画像から各パラメータや当落などを推定する
● 具体的には顔画像を⼊⼒として下記の2種類を推定
○ Governor(知事; 67.9%で正答)かSenator(上院議員; 65.5%で正答)か
?
○ Democrats(⺠主党) vs. Republicans(共和党)を男性(62.6%)⼥性(
60.1%)で認識
選挙の⾏⽅はAIが予測?(結果からそれはできそうにないが読み物として⾯⽩い)
注:この論⽂が差別を助⻑したいわけでは
ないと思われます(念のため)
←図1は2016年⼤統領選挙から,顔画像のみ(!?)から各候補者
のステータスを推定,知事or上院議員,⺠主党or共和党も予測
33. 33
会議 : TIFS 2012
著者 : Brendan F. Klare,Mark J. Burge,Joshua C. Klontz,Richard W. Vorder Bruegge,
Anil K. Jain
● 顔認識アルゴリズムにおいてバイアスを軽減するための⼿法
● ⼈物画像においてサンプリング,PCAなどを施し,バイアスによる特徴量
を軽減?
● 6つの顔認識アルゴリズム(商⽤:3つ,学習不可:2つ,学習可:1つ)
において検証
○ ⼥性・⿊⾊⼈種・特定の年齢層においては⼀貫して認識精度が⾼い
Face Recognition Performance: Role of
Demographic Information
法執⾏機関などにおける顔認証システムにおいて識別精度が向上
34. 34
会議 : Science 2019
著者 : Ziad Obermeyer, Brain Powers, Christine Vogeli, Sendhil Mullainathan
● 病状の重度さの判断に医療⽀出費を⽤いた
● 医療⽀出費は,収⼊に依存し,収⼊は⼈種に依存していたため不公平な判
断
○ ⼈種によっては重度な病状でも⾼度な処⽅を受けることが少ない
約1億の⽶国⼈に影響した医療判断アルゴリズム
Dissing racial bias in an algorithm used to manage the
health of populations
35. VizWiz-Priv: A Dataset for Recognizing the Presence and Purpose of
Private Visual Information in Images Taken by Blind People
35
会議 : CVPR 2019 Workshop
著者 : Danna Gurari, Qing Li, Chi Lin, Yinan Zhao, Anhong Guo, Abigale Stangl, Jeffrey P.
Bigham
● 視覚障がい者が⾃ら撮影した画像データセットを構築
● データセット内に個⼈情報(⼈物画像,クレジットカードなど)が含まれ
る画像が10%程度存在することを確認
● データセットはこちら(https://vizwiz.org/)から⼊⼿可能
視覚障がい者のSNSへのアップロードの危険性を⽰唆
36. Implications of Computer Vision Driven Assistive Technologies
Towards Individuals with Visual Impairment
36
会議 : CVPR 2019 Workshop
著者 : Linda Wang, Alexander Wong
● 視覚障がい者に対してComputer Vision⽀援による影響(プラスとマイナ
ス)を検討
○ プラス:物体検知や顔認証によって視覚障がい者の⾃⽴や⾃律性の向
上を援助
■ Seen AI,Lookoutなどのコミュニケーションツールの発達
■ ナビゲーションシステムの登場
○ マイナス:視覚障がい者に対する偏⾒や個⼈情報の流出が懸念
■ 視覚障がい者に関する情報の保守が困難
データベースの偏りや個⼈情報保護が軽減する仕組みが重要
37. Dermatologist-level classification of skin cancer with
deep neural networks
37
会議 : Nature, 2017
著者 : Andre Esteva, Brett Kuprel, Roberto A. Novoa, Justin Ko, Susan M. Swetter, Helen
M. Blau, Sebastian Thrun
● メラノーマをDNN(GoogLeNet Inception v3)により検出,⽪膚科専⾨
医の診断と⽐較
● しかしBuolamwiniら(Gender Shades)の指摘によると肌の⾊,厚み,
⽑量などのラベルがないと誤診断してしまう可能性もある
専⾨医と同等の診断能⼒を持つが,偏りをさらに無くしたい
38. Using deep learning and Google Street View to estimate the
demographic makeup of neighborhoods across the United States
38
会議 : PNAS 2017
著者 : Timnit Gebru, Jonathan Krause, Yilun Wang, Duyun Chen, Jia Deng, Erez
Lieberman Aiden, Li Fei-Fei
● Google Street Viewを⽤い⽶国の200都市から50M枚の画像を収集,22M
台の⾞種を識別
● ⾞種から推測される属性情報との関連で選挙の投票傾向を予測
○ ⽶国の9割以上の家庭は⾞を保有,さらに⾞種と投票傾向には相関有
選挙の投票結果をGoogle Street View画像から予測
(1)ストリートビューから画像を収集
(2)DPMにより⾞両の位置を特定
(3)全2,657種類の⾞種を識別
(4)メーカー/モデル/製造年など属性情報を抽出
39. Detecting Bias with Generative Counterfactual Face
Attribute Augmentation
39
会議 : CVPR 2019 Workshop
著者 : Emily Denton, Ben Hutchinson, Margaret Mitchell, Timnit Gebru
● CelebAデータセットを学習することで笑顔識別器を構築
● PG-GANにより属性により顔画像の編集ができる⽣成器を構築
● 上記の識別器や⽣成器により属性ごとの偏りを明らかにする
GANによる⽣成を⽤いて顔属性ごとの偏りを明らかにした
顔画像を部分的に編集(図は
髪を追加)して特徴に変更が
⽣じるかを検証,性差などは
無関係に顔認識を⾏いたい
40. Towards Standardization of Data Licenses:
The Montreal Data License
40
会議 : CVPR 2019 Workshop
著者 : Misha Benjamin, Paul Gagnon, Negar Rostamzadeh, Chris Pal, Yoshua Bengio,
Alex Shee
● データセットのライセンスを標準化する取り組みであるMontreal Data
License(MDL)について説明した論⽂である
● MDLはこちら( https://www.montrealdatalicense.com/en )から参
照可能であり、⼿順に従って項⽬を選択すれば「データの種類」や「使⽤
の範囲」などが明記されたライセンスを発⾏可能
AI/ML分野のデータセットライセンスを明確にすることで
透明性だけでなく,公平にデータが⽤意されているかも判断
MDLのwebpageから参照
論⽂中では「データは現代の⽯油と⾔われる」とい
う⾔及もある⼀⽅で、「⽯油ほどは標準化されてい
ない」というところから問題意識がスタートする
41. Democratisation of Usable Machine Learning in
Computer Vision
41
会議 : CVPR 2019 Workshop
著者 : Raymond Bond, Ansgar Koene, Alan Dix, Jennifer Boger, Maurice Mulvenna,
Mykola Galushka, Bethany Waterhouse-Bradley, Fiona Browne, Hui Wang and Alexander
Wong
● MLのツールを使⽤することに対する⻑所や短所、機械,脅威をSWOT分
析
● 知識のないユーザでも安全に利⽤できるアプリケーションが必要
● データサイエンスにおけるリテラシー基準を提案
「⼤きな⼒には⼤きな責任が伴う」
60. 各機関の研究体制構築(1/6)
60
● Microsoft Research
● FATEFairness, Accountability, Transparency and Ethicsグループが存在
● 効率や公平性のトレードオフを⾒極めて信頼できるAIに
技術を⾼める
● ACM FAT*にもGender Shadesなど論⽂投稿
https://www.microsoft.com/en-us/research/blog/microsoft-research-to-present-latest-findings-on-fairness-in-socio-technical-systems-at-fat-2019/
https://www.microsoft.com/en-us/research/group/fate/
61. 各機関の研究体制構築(2/6)
61
● Google
● Google翻訳・Google Photsなどリリースしたシステムから,
unfairnessに気づくことで早期に研究開始
● Security, Privacy and Abuse Preventionといった研究チームが存在
○ Goodfellow⽒(元Google)も過去に所属するなどかなり激強研究メンバーで活動
○ Social scientists・Humanistsなどの専⾨家もチームに参加
● 研究の⼀例
○ Measuring bias
○ Building fair ML models and datasets
○ Techniques for mitigation
○ Understanding users & society
https://developers.google.com/machine-learning/fairness-overview
https://ai.google/responsibilities/responsible-ai-practices/?category=fairness
Google翻訳に対する性別バイアスの軽減
62. 各機関の研究体制構築(3/6)
62
DeepMind
● Ethics & SocietyといったFairness
について研究するチームが存在
● Princeton Univ.と提携してWorkShopを開催
● Women in Machine LarningやAfrican Deep Learning Indabaなど
のコミュニティに資⾦提供
世界的に著名な経済学の教授ら
をアドバイザーとして加えて,
公共政策などの社会的な背景も
加味しながら研究を促進
https://deepmind.com/safety-and-ethics
63. 各機関の研究体制構築(4/6)
63
● Amazon
● 資⾦提供型の研究を実施
○ Amazon and NSF Collaborate to Accelerate Fairness in AI
Research
○ Amazonと⼀体となり問題を解決する戦略
○ https://developer.amazon.com/ja/blogs/alexa/post/d9a995d4-943a-456b-9527-
848f437b1a8c/amazon-and-nsf-collaborate-to-accelerate-fairness-in-ai-research
Amazon’s “holy grail” recruiting tool was
actually just biased against women(再掲)
https://qz.com/1419228/amazons-ai-powered-recruiting-tool-was-biased-against-women/
採⽤AIの件もあり,いち早く問題に気付いた
64. 各機関の研究体制構築(5/6)
64
MIT Media Lab.
● Joy Buolamwini⽒を中⼼に体制を構築
● Algorithmic Justice League
○ コミュニティが⼀体となってアルゴリズムバイアスからくる
不公平性をなくすために尽⼒
○ https://www.ajlunited.org/
● Civic Media Groupに所属
○ Ethan Zuckerman率いる
○ ⺠衆とメディアの⼒を活⽤するという⽬的のグループ
○ 個⼈ではなし得ない⼤きな⼒をうまく利⽤しコミュニティを
形成することに知⾒がある(のではないか)
https://civic.mit.edu/
68. 注⽬研究者(3/5)
68
● Stanford/Princeton Univ.の注⽬研究者
● Olga Russakovsky⽒, Jia Deng⽒, Fei-Fei Li⽒
○ ImageNetを構築し, 2020年 公平性について議論
○ スタンフォード⼤SVL (Fei-Fei Lab.)
■ ImageNet構築,ILSVRC運営等
■ Russakovsky⽒, Deng⽒は現在プリンストン⼤
○ 代表的な共著論⽂
■ ImageNet Large Scale Visual Recognition Challenge
(IJCV 2015)
■ Towards fairer datasets: Filtering and balancing the
distribution of the people subtree in the imagenet
hierarchy (ACM FAT* 2020)
https://www.cs.princeton.edu/~olgarus/
http://vision.stanford.edu/people.html
https://www.cs.princeton.edu/~jiadeng/
69. 注⽬研究者(4/5)
69
● Google AIの注⽬研究者
● Moustapha Cisse⽒
○ Head of GoogleAI in Accra, Ghana
○ 代表論⽂
○ ConvNets and ImageNet Beyond Accuracy:
Understanding Mistakes and Uncovering Biases (ECCV 2018)
http://moustaphacisse.com/
70. 注⽬研究者(5/5)
70
● Univ. of Virginiaの注⽬研究者
● Vicente Ordonez Roman⽒
○ Vision, Languageの両側⾯から公平性について研究
○ 代表論⽂
■ Balanced Datasets Are Not Enough: Estimating and
Mitigating Gender Bias in Deep Image Representation
(ICCV 2019)
http://vicenteordonez.com/
71. 研究を始めるには?(1/4)
71
● 既存データに対し追加アノテーション
● 属性 (男⼥/年齢/肌の⾊)などを追加している
● 既存のモデルを試して認識率の⽐較
● 例:Pedestrian Detection Bias, Auditing ImageNet
○ Age and gender bias in pedestrian detection algorithms (CVPR 2019
Workshop)
○ Auditing ImageNet: Towards a Model-driven Framework for Annotating
Demographic Attributes of Large-scale Image Datasets (CVPR 2019
Workshop)
https://www.martimbrandao.com/pedestrian-detection-bias/
INRIA Person Detectionに追加ラベルを付与,著者
ページにて公開 [M. Brandao, CVPR 2019 WS]
72. 研究を始めるには?(2/4)
72
● データから偏りを省く
● インスタンス数の不均衡を解消
● 画像収集・ラベル⾃体を付け直す場合も
● 例:Towards Fairer Datasets, Balanced Datasets
Are Not Enough
○ Towards Fairer Datasets: Filtering and Balancing the Distribution of the
People Subtree in the ImageNet Hierarchy (ACM FAT* 2020)
○ Balanced Datasets Are Not Enough: Estimating and Mitigating Gender
Bias in Deep Image Representation (CVPR 2019 WS / ICCV 2019)
73. 研究を始めるには?(3/4)
73
● 特徴空間を調整して不公平性を解消
● 距離学習など
● 例:SensitiveNets, Unsupervised Domain
Adaptation
○ SensitiveNets: Unlearning Undesired Information for Generating
Agnostic Representations with Application to Face Recognition (CVPR
2019 WS)
○ Unsupervised Domain Adaptation for Distance Metric Learning (CVPR
2019 WS / ICLR 2019)
75. 研究コミュニティ⾃体も公平性を検討?
75
● 研究者⼈⼝を増やそう!コミュニティで研究しよう!
● ⼥性コミュニティ
○ Women in ML https://wimlworkshop.org/
○ Women in CV https://wicvworkshop.github.io/CVPR2019/index.html
● ⿊⾊⼈種コミュニティ
○ Black in AI https://blackinai.github.io/
● ラテンアメリカコミュニティ
○ khipu.ai https://khipu.ai/
● AI⼈材育成組織
○ AI4ALL http://ai-4-all.org/
● 直近のアフリカ開催の学会
○ ICLRʼ20 in Addis Ababa, Ethiopia https://iclr.cc/Conferences/2020
○ アフリカでの学会開催が少ないため