Maschinen haben kein Gewissen. Oder etwa doch? Immer wieder hört man von Fällen, in denen eine KI scheinbar „unethische“ Entscheidungen fällt oder für politische Zwecke missbraucht wird. Angefangen bei genderspezifischer Benachteiligung, über die Generierung und gezielte Verbreitung von Fake-News und Deep-Fakes bis hin zu offenkundigem Rassismus durch eine KI existieren unzählige Beispiele. Was aber genau steckt dahinter und wie können wir uns dagegen verwehren? Die Session zeigt einige populäre Beispiele auf und beleuchtet deren Hintergründe.
Eine KI ist nur so gut wie ihr Modell und die Daten, auf denen dieses basiert. Dies führt immer wieder zu überraschenden, ja sogar erschreckenden Resultaten bei deren Einsatz. Dabei bildet die KI nicht selten lediglich unsere Realität ab und spiegelt somit die Grundwerte unserer Gesellschaft wider, wie populäre Beispiele zeigen. Die Session zeigt einige Beispiele, in denen eindeutig einzelne Gruppen der Bevölkerung benachteiligt wurden, und beleuchtet diese im Detail. Es wird aufgezeigt, wie wir alle durch Fake-News und Deep-Fakes manipuliert werden und welche Initiativen zum Schutz und zur Regulierung angedacht sind.
13. „Artificial Intelligence is a system’s
ability to correctly interpret external
data, to learn from such data, and to
use those learnings to achieve specific
goals and tasks through flexible
adaptation.“
Andreas Kaplan & Michael Haenlein, 2018
15. künstliche Intelligenz
starke
KI
schwache KI
Machine
Learning
echte Nachbildung des
menschlichen Bewusstseins
(bis heute nicht existent)
Teilgebiet der künstlichen
Intelligenz: lernt mittels
statistischer Methoden
und kann sich anhand von
Erfahrungen verbessern
Maschine, die
menschliches Verhalten
(teilweise) imitiert
16. Teilgebiet des Machine
Learnings: bedient sich
mehrschichtiger neuronaler
Netze zum Lernen/Entscheiden
künstliche Intelligenz
starke
KI
schwache KI
Deep
Learning
Machine
Learning
echte Nachbildung des
menschlichen Bewusstseins
(bis heute nicht existent)
Teilgebiet der künstlichen
Intelligenz: lernt mittels
statistischer Methoden
und kann sich anhand von
Erfahrungen verbessern
Maschine, die
menschliches Verhalten
(teilweise) imitiert
20. KI am Beispiel der
TITANIC
gegeben: Trainingsdatenmenge mit
Informationen zu einigen Passagieren der
Titanic.
gesucht: Entscheidungsbaum, der für die
übrigen Passagiere vorhersagt, ob sie die
Fahrt überlebt haben oder nicht.
Trainingsset
(891 Passagiere)
Testset
(1309 Passagiere)
21. KI am Beispiel der
TITANIC
- Name & Anrede (ca. 70%)
- Alter (ca. 80%)
- Buchungsklasse & Ticketpreis
- Familiengröße
- Geschlecht
- hat überlebt JA / NEIN
Trainingsset
(891 Passagiere)
Grundwahrheit
(gibt dem Algorithmus Feedback)
22. KI am Beispiel der
TITANIC
Frau?
> 9,5 J
nein ja
überlebt
nicht
überlebt
Trainingsset
(891 Passagiere)
233/314
überlebt
109/577
überlebt
701/891
korrekt
233
468
23. KI am Beispiel der
TITANIC
Frau?
> 9,5 J
nein ja
überlebt
nicht
überlebt
Trainingsset
(891 Passagiere)
75%
81%
79%
korrekt
„Das ist KI? Da geht doch
bestimmt noch mehr?“
24. KI am Beispiel der
TITANIC
Frau?
> 9,5 J
< 3
Geschw.
nein
ja
nein
ja
ja
nein
überlebt
überlebt
nicht
überlebt
nicht
überlebt
Trainingsset
(891 Passagiere)
233/314
überlebt
90/545
überlebt
1/14
überlebt
18/18
überlebt
25. KI am Beispiel der
TITANIC
Frau?
> 9,5 J
< 3
Geschw.
nein
ja
nein
ja
ja
nein
überlebt
überlebt
nicht
überlebt
nicht
überlebt
Trainingsset
(891 Passagiere)
100%
75%
83%
93%
81%
korrekt
„Cool! Ich will die 100
sehen, ich will die … “
26. KI am Beispiel der
TITANIC
Frau?
> 9,5 J
< 3
Geschw.
nein
ja
nein
ja
ja
nein
überlebt
überlebt
nicht
überlebt
nicht
überlebt
Trainingsset
(891 Passagiere)
100%
75%
83%
93%
81%
korrekt
OVERFITTING
27. KI am Beispiel der
TITANIC
Frau?
> 9,5 J
< 3
Geschw.
nein
ja
nein
ja
ja
nein
überlebt
überlebt
nicht
überlebt
nicht
überlebt
Testset
(1309 Passagiere)
339/466
überlebt
136/796
überlebt
3/27
überlebt
19/20
überlebt
ca 80% korrekt
28. KI am Beispiel der
TITANIC
FAZIT: unsere „KI“ sagt mit 80%iger
Wahrscheinlichkeit das richtige Ergebnis
voraus.
Ist das gut?
29. KI am Beispiel der
TITANIC
FAZIT: unsere „KI“ sagt mit 80%iger
Wahrscheinlichkeit das richtige Ergebnis
voraus.
FAKT: 61,6% der Passagiere sind
ertrunken.
Baseline
(Maß für die Qualität)
30. KI am Beispiel der
TITANIC
KORRELATION: Frauen & Kinder haben
dieses Schiffsunglück häufiger überlebt*.
VS
KAUSALITÄT: Frauen und Kinder
haben bei Schiffsunglücken eine
höhere Überlebenschance.
Rückschluss
(Interpretation des Modells)
* „Frauen und Kinder zuerst in die Boote“.
31.
32. KI am Beispiel von
RECRUITING
gegeben: Daten mit Informationen zu
erfolgreichen / erfolglosen Bewerbern.
gesucht: Entscheidungsgrundlage, ob
Bewerber zum Gespräch eingeladen
werden sollen.
33. KI am Beispiel von
RECRUITING
Berufserfahrung (in Jahren)
Arbeitslosigkeit
(in
Jahren)
„KI: finde bitte eine sinnvolle
Unterteilung. Danke.“*
*… auf deren Basis wir Aussagen über den Erfolg
zukünftiger Bewerber treffen können.
34. KI am Beispiel von
RECRUITING
Berufserfahrung (in Jahren)
Arbeitslosigkeit
(in
Jahren)
35. KI am Beispiel von
RECRUITING
Berufserfahrung (in Jahren)
Arbeitslosigkeit
(in
Jahren)
7
4
4
5
6
36. KI am Beispiel von
RECRUITING
Berufserfahrung (in Jahren)
Arbeitslosigkeit
(in
Jahren)
4
37. KI am Beispiel von
RECRUITING
Berufserfahrung (in Jahren)
Arbeitslosigkeit
(in
Jahren)
4
38. KI am Beispiel von
RECRUITING
Berufserfahrung (in Jahren)
Arbeitslosigkeit
(in
Jahren)
7
39. KI am Beispiel von
RECRUITING
Berufserfahrung (in Jahren)
Arbeitslosigkeit
(in
Jahren)
6
40. KI am Beispiel von
RECRUITING
Berufserfahrung (in Jahren)
Arbeitslosigkeit
(in
Jahren)
7
4
4
5
6
41. KI am Beispiel von
RECRUITING
Menschen müssen entscheiden, was
eine gute Entscheidung ausmacht, damit
maschinelles Lernen überhaupt gute
Entscheidungen produzieren kann.*
Rückkopplung/Feedback: Das
gezeigte Modell ermöglicht nur
einseitiges Feedback!**
Rückschluss
(Sozioinformatiker)
*Recruitingsysteme haben i.d.R. 25+ Qualitätsmerkmale
**in realer Welt eher die Norm als die Ausnahme
42. KI am Beispiel von
PROFILING
Alter bei erster Straftat
bisherige
Straftaten
7
4
4
5
6
„KI: wie wahrscheinlich ist es, dass
der Kriminelle rückfällig wird?
43. KI am Beispiel von
PROFILING
Operationalisierbarkeit: Was kann
gemessen werden? Was nicht? Und was
wird am Ende tatsächlich gemessen?*
Moralische Abwägung: welche
Fehlentscheidung wiegt schwerer?
*nicht die Rückfälligkeit wird gemessen, sondern lediglich, wer erwischt wurde!
Menschen hispanischer Herkunft werden in den USA 4x häufiger kontrolliert als
weiße Amerikaner. Afroamerikaner sogar 6x häufiger. Diebstahl und Drogendelikte
werden deutlich intensiver verfolgt als Finanzdelikte.
SELBSTERFÜLLENDE
PROPHEZEIUNG!
72. „Wo bereits vorher
diskriminiert wurde, wird die
KI die Diskriminierung mitlernen!“*
* Daten & KI sind aber auch Chance, Diskriminierung aufzudecken!
78. Kaufempfehlung
Objektbewertung
ohne Auswirkung
auf Menschen
Autom. LStJA
Facebook
Newsfeed
Bewerber
aussortieren
Arbeitnehmer
bewerten
Kredit-
Scoring
China
Citizen
Score
Lethal
auton.
Weapons
Terroristen
Identifikation
Klasse 0 Klasse 1 Klasse 2
Klasse 3
Klasse 4
Gesamtschadenspotential
niedrig hoch
Wahl-/Einflussmöglichkeit
niedrig
hoch
Quelle: Enquete-Kommission des Bundestages „AI“
79. Klasse 1
Quelle: Enquete-Kommission des Bundestages „AI“
Nennung der Qualitätsmerkmale
Nennung des Lernverfahrens
Notwendige Interfaces für BlackBox Verfahren
Beschreibung der Einbettung in den sozialen Entscheidungsprozess
Klasse 2 Nennung der Trainings- und Eingabedaten
Nachvollziehbarkeit der Qualitätsbewertung
Klasse 3 Nachvollziehbarkeit der Daten
Nachvollziehbarkeit des Lernverfahrens
Nachvollziehbarkeit der Entscheidung
Klasse 4 KEINE KI erlauben!
Risikomatrixzur Notwendigkeit der Regulierung
81. Was ihr mitnehmen solltet …
KI ist nicht (mehr) aufzuhalten
KI ist Operationalisierung, Modell und Aktion
KI ist Korrelation und nicht Kausalität
schlechte Daten führen zu schlechten Entscheidungen
selbstoptimierende Systeme benötigen zweiseitiges Feedback
Regulierung ist immer dann notwendig und sinnvoll, wenn es
nur wenig Auswahl-/Einflussmöglichkeiten gibt und ein hohes
Schadenspotential – individuell und/oder gesamt - besteht.
82. „Menschen müssen entscheiden,
was eine gute Entscheidung ist,
damit maschinelles Lernen
überhaupt gute Entscheidungen
produzieren kann.“