Selbstlernende Algorithmen
Künstliche Intelligenz voller Vorurteile
von Eva Wolfangel2.9.2017, 05:30 Uhr
Algorithmen fallen immer öfter durch
Rassismus und Sexismus auf. In die Lösung dieses Problems spielt die
Berechnung von Diskriminierung hinein – und das macht die Sache
kompliziert.
Googles Algorithmen finden eine solche
Haarpracht «unprofessionell». Das liegt an uns. (Bild: Finbarr O'Reilly
/ Reuters)
Wer bei Googles Bildersuche den Begriff
«Hand» eingibt, bekommt vor allem weisse Hände als Ergebnis angezeigt.
Wer nach «professional hair» sucht, der sieht westliche Frisuren; «unprofessional
hair» hingegen fördert afrikanische Locken zutage. Es gibt unzählige
weitere Beispiele. Sie alle lassen die Suchmaschine Google rassistisch
erscheinen. Freilich ist das nicht Google selbst, sondern es sind
sogenannte selbstlernende Algorithmen: Sie lernen anhand von Vorbildern,
wie die Welt funktioniert.
Im Fall der Bildersuche beispielsweise
bekommen sie unzählige Bilder als Trainingsdaten zusammen mit einem
Schlagwort, das Menschen ihnen gegeben haben. Aus diesen Bergen von
unstrukturierten Daten lernen die Algorithmen zu erkennen, was auf einem
Bild dargestellt ist – und offenbar erlernen sie dabei jede Menge
Vorurteile.
Implizite Werturteile
«Es ist ja eigentlich einfach», sagt Aylin
Caliskan von der Princeton University. «Wenn wir den Maschinen unsere
eigenen, impliziten Werturteile vermitteln, dann übernehmen sie diese.»
Das klingt einleuchtend. Ihr selbst ist das schon früh aufgefallen
anhand automatischer Übersetzungen, die klassische Rollenklischees
bedienten. «Aber als mir die Idee zum ersten Mal kam, gab es keinen Weg,
das zu belegen.» Erst als sie begann, unter anderem mit
Kognitionsforschern zusammenzuarbeiten – Wissenschaftern, die mehr auf
die Menschen schauen als auf die Maschinen, kam Licht ins Dunkel: Die
Gruppe wies nach, dass eine künstliche Intelligenz Werturteile
entwickelt, wenn sie ihr Wissen aus repräsentativen Texten der
Menschheit generiert.
Dafür kombinierten die Informatiker und
Psychologen ein Verfahren der Computerlinguistik mit einem der
Vorurteilsforschung. Sie fanden dabei unter anderem heraus, dass sowohl
Menschen als auch die künstliche Intelligenz Blumen ebenso wie
europäisch-amerikanische Vornamen mit positiven Begriffen assoziieren,
wohingegen Insekten sowie afroamerikanische Namen mit negativen
Begriffen verbunden werden. Männliche Namen stehen semantisch näher an
Karrierebegriffen, weibliche Namen hingegen werden eher mit Familie
assoziiert, Mathematik und Wissenschaft mehr mit Männern, Kunst mehr mit
Frauen. Anstatt also das grosse Versprechen der künstlichen Intelligenz
zu erfüllen – nämlich wertfreie Entscheidungen zu fällen –, tun die
Algorithmen genau das Gegenteil: Sie schnappen Stereotype aus den Daten
auf.
Künstliche Intelligenz
Die Innereien der Informatik
Kolumnevon Stefan Betschon8.8.2017, 05:30
Jedes Programm enthält eine Weltsicht, eine
Wissensordnung. Die Denkwerkzeuge verändern unser Denken.
Ebenso wie Menschen, sagt Caliskan:
«Wahrscheinlich lernen wir unsere Vorurteile schon als Babys aus der
Sprache.» Weil diese Stereotype untrennbar mit unserer Sprache verbunden
sind, fallen sie Menschen oft kaum auf: Sie pflanzen sich schon mit den
ersten Worten, deren Bedeutung wir lernen, in unsere Gehirne ein. Eine
weitere Parallele eint in dieser Hinsicht Mensch und Maschine: Wir
können nicht in die Köpfe der anderen schauen – weder in die unserer
Mitmenschen noch in die Entscheidungsprozesse der maschinellen
neuronalen Netze. Forscher bezeichnen diese neuen Lernverfahren deshalb
als Black Box: Die Algorithmen kommen zu Schlüssen, aber keiner weiss,
wie.
Derzeit werden die Schwachstellen dieser
Systeme ständig von neuem deutlich. «Datengetriebene maschinelle
Sprachverarbeitung reproduziert sexistische oder rassistische
Vorurteile», sagt etwa Hanna Wallach, Senior Researcher bei Microsoft
Research in New York. Wie sollen wir einer künstlichen Intelligenz
vertrauen, wie soll sie unseren Alltag regeln, wenn ihre Entscheidungen
Verzerrungen enthalten? «Wenn Datenpunkte Menschen sind, bekommt diese
Analyse ein viel grösseres Gewicht, denn die Fehler haben Konsequenzen
für das Leben echter Menschen», sagt Wallach. Noch gebe es keine Lösung.
Doch immer mehr Forscher schliessen sich einer Bewegung für Transparenz
und Fairness im maschinellen Lernen an.
Deren erste Versuche sind indes ernüchternd:
Möglicherweise liessen sich die Vorurteile der künstlichen Intelligenz
loswerden, indem man alle Informationen aus den Daten löscht, die eine
Diskriminierung verursachen könnten – beispielsweise Hinweise auf das
Geschlecht oder die Hautfarbe, so eine Idee. Sie führte nicht zum Ziel.
Sondern zu der Erkenntnis, dass künstliche Intelligenzen von allen
möglichen Informationen aus auf die Hautfarbe schliessen – in den USA
beispielsweise korrelieren Wohnort und Lebensumstände mit der Hautfarbe
– und dass Menschen kaum eine Chance haben, alle von den Algorithmen
errechneten Zusammenhänge zu entschlüsseln. Denn Maschinen sind
beeindruckend gut darin, Muster in Daten zu finden – ein Vorteil, der
sich an dieser Stelle zum Nachteil verkehrt.
Dem pflichtet auch Peter Staar von IBM
Research in Zürich bei: Eine Verzerrung in den Daten zu entdecken, sei
schwierig und nicht immer möglich, sagt Staar, der zwar in einer eher
technischen Domäne arbeitet – er versucht, die Eigenschaften neuer
Materialien von künstlicher Intelligenz berechnen zu lassen –, dort aber
ebenfalls mögliche Fehler künstlicher Intelligenzen untersucht. Eine
Möglichkeit bestehe darin, «Ausreisser» in den Daten zu identifizieren:
Werte, die scheinbar nicht ins Bild passen. «Das ist ein traditioneller
Weg der Wissenschaft, um neue Ideen zu entdecken», sagt er. Nur kann
sich hinter einem Ausreisser der Weg zu etwas Neuem verbergen oder ein
Berechnungsfehler. Oder der auffällige Datenpunkt weist auf fehlende
Daten hin, sozusagen ein Loch im Datensatz, wie bei der eingangs
erwähnten Internetsuche nach dem Begriff «Hand». Staar hält es deshalb
für gefährlich, solche Technologien «blind» anzuwenden: Die Antwort
einer künstlichen Intelligenz müsse für den Nutzer stets nachvollziehbar
sein.
Kausalität oder Korrelation?
«Sicher wäre es gut, wenn wir Modelle bauen
würden, die man einfacher verstehen kann», sagt Suresh
Venkatasubramanian von der University of Utah, «nur wie?» Seit mehr als
zehn Jahren beschäftigt sich der Informatiker mit der Frage, wie die
Entscheidungen von Algorithmen zuverlässiger werden können. Wenn
Menschen die Ergebnisse überprüfen und den Weg der Erkenntnis
nachvollziehen könnten, wenn sie beispielsweise sehen könnten, welche
Faktoren in den Daten der Algorithmus als besonders gewichtig wertet,
wäre schon einiges getan. Erste Ansätze in diese Richtung gibt es
bereits – doch selbst Menschen fällt es schwer, die Zusammenhänge in
Daten richtig zu deuten. «Kausalitäten aus Korrelationen zu extrahieren,
das ist das Schwierigste», sagt Venkatasubramanian seufzend.
Auch umgekehrt gilt: Was nach Vorurteilen
aussieht, müssen nicht immer welche sein. Das zeigte unlängst ein
kleiner «Skandal» bei Facebook. Ein ehemaliger Mitarbeiter hatte Daten
veröffentlicht, laut denen Informatikerinnen ihren Code deutlich
häufiger überarbeiten müssen als ihre männlichen Kollegen. Werden Frauen
bei Facebook also diskriminiert? Der Schluss liegt nahe, aber die Firma
widersprach: Das Ergebnis spiegele lediglich wider, dass mehr Frauen
unter den jungen Mitarbeitern seien. Weil Junge noch lernen, bekommen
sie auch mehr Kritik als Ältere. Nehme man die Gruppe der Jungen als
Massstab, sei das Risiko, kritisiert zu werden, für Frauen nicht höher
als das für Männer.
«Die Frage der Gleichbehandlung hängt also
auch davon ab, wie man seine Daten gruppiert», sagt dazu
Venkatasubramanian. Würde man alle Männer und Frauen gleich behandeln,
dann wären die jungen Männer im Nachteil: Ihr Code würde übermässig
häufig zurückgewiesen, da ihnen mehr junge Frauen gegenüberstehen.
Dieses sogenannte Simpson-Paradoxon macht die Sache kompliziert, denn es
zeigt, dass Diskriminierung nicht ohne weiteres mit mathematischen
Methoden fassbar ist: «Wir müssen die gleichen Daten unterschiedlich
interpretieren», sagt Venkatasubramanian.
Doch Maschinen können nur rechnen. Ob sie das
jemals verstehen werden?
https://www.nzz.ch/wissenschaft/selbstlernende-algorithmen-kuenstliche-intelligenz-voller-vorurteile-ld.1313680