Hooepage Cybersecuritv Cyberpace Menschen
Nachrichtendienste kybernetische Waffen Bildung
A I   oder K I Wirkungsweise Quo vadis Beispiele Politik Realisierungen Militär Unternehmen Finanz. Banken Forschung Geheimdienste Schwachstellen
Künstliche Intelligenz - Politik - 
Emirate richten
Ministerium für künstliche Intelligenz ein


Künstliche Intelligenz im «goldenen Ei» in der Schweiz

USA riskieren Niederlage im Wettrüsten mit
Russland und China

 

 

 
 
N Z Z

Selbstlernende Algorithmen

Künstliche Intelligenz voller Vorurteile
von Eva Wolfangel2.9.2017, 05:30 Uhr
Algorithmen fallen immer öfter durch Rassismus und Sexismus auf. In die Lösung dieses Problems spielt die Berechnung von Diskriminierung hinein – und das macht die Sache kompliziert.

Googles Algorithmen finden eine solche Haarpracht «unprofessionell». Das liegt an uns. (Bild: Finbarr O'Reilly / Reuters)
Wer bei Googles Bildersuche den Begriff «Hand» eingibt, bekommt vor allem weisse Hände als Ergebnis angezeigt. Wer nach «professional hair» sucht, der sieht westliche Frisuren; «unprofessional hair» hingegen fördert afrikanische Locken zutage. Es gibt unzählige weitere Beispiele. Sie alle lassen die Suchmaschine Google rassistisch erscheinen. Freilich ist das nicht Google selbst, sondern es sind sogenannte selbstlernende Algorithmen: Sie lernen anhand von Vorbildern, wie die Welt funktioniert.
Im Fall der Bildersuche beispielsweise bekommen sie unzählige Bilder als Trainingsdaten zusammen mit einem Schlagwort, das Menschen ihnen gegeben haben. Aus diesen Bergen von unstrukturierten Daten lernen die Algorithmen zu erkennen, was auf einem Bild dargestellt ist – und offenbar erlernen sie dabei jede Menge Vorurteile.
Implizite Werturteile
«Es ist ja eigentlich einfach», sagt Aylin Caliskan von der Princeton University. «Wenn wir den Maschinen unsere eigenen, impliziten Werturteile vermitteln, dann übernehmen sie diese.» Das klingt einleuchtend. Ihr selbst ist das schon früh aufgefallen anhand automatischer Übersetzungen, die klassische Rollenklischees bedienten. «Aber als mir die Idee zum ersten Mal kam, gab es keinen Weg, das zu belegen.» Erst als sie begann, unter anderem mit Kognitionsforschern zusammenzuarbeiten – Wissenschaftern, die mehr auf die Menschen schauen als auf die Maschinen, kam Licht ins Dunkel: Die Gruppe wies nach, dass eine künstliche Intelligenz Werturteile entwickelt, wenn sie ihr Wissen aus repräsentativen Texten der Menschheit generiert.
Dafür kombinierten die Informatiker und Psychologen ein Verfahren der Computerlinguistik mit einem der Vorurteilsforschung. Sie fanden dabei unter anderem heraus, dass sowohl Menschen als auch die künstliche Intelligenz Blumen ebenso wie europäisch-amerikanische Vornamen mit positiven Begriffen assoziieren, wohingegen Insekten sowie afroamerikanische Namen mit negativen Begriffen verbunden werden. Männliche Namen stehen semantisch näher an Karrierebegriffen, weibliche Namen hingegen werden eher mit Familie assoziiert, Mathematik und Wissenschaft mehr mit Männern, Kunst mehr mit Frauen. Anstatt also das grosse Versprechen der künstlichen Intelligenz zu erfüllen – nämlich wertfreie Entscheidungen zu fällen –, tun die Algorithmen genau das Gegenteil: Sie schnappen Stereotype aus den Daten auf.

Künstliche Intelligenz
Die Innereien der Informatik
Kolumnevon Stefan Betschon8.8.2017, 05:30
Jedes Programm enthält eine Weltsicht, eine Wissensordnung. Die Denkwerkzeuge verändern unser Denken.
Ebenso wie Menschen, sagt Caliskan: «Wahrscheinlich lernen wir unsere Vorurteile schon als Babys aus der Sprache.» Weil diese Stereotype untrennbar mit unserer Sprache verbunden sind, fallen sie Menschen oft kaum auf: Sie pflanzen sich schon mit den ersten Worten, deren Bedeutung wir lernen, in unsere Gehirne ein. Eine weitere Parallele eint in dieser Hinsicht Mensch und Maschine: Wir können nicht in die Köpfe der anderen schauen – weder in die unserer Mitmenschen noch in die Entscheidungsprozesse der maschinellen neuronalen Netze. Forscher bezeichnen diese neuen Lernverfahren deshalb als Black Box: Die Algorithmen kommen zu Schlüssen, aber keiner weiss, wie.
Derzeit werden die Schwachstellen dieser Systeme ständig von neuem deutlich. «Datengetriebene maschinelle Sprachverarbeitung reproduziert sexistische oder rassistische Vorurteile», sagt etwa Hanna Wallach, Senior Researcher bei Microsoft Research in New York. Wie sollen wir einer künstlichen Intelligenz vertrauen, wie soll sie unseren Alltag regeln, wenn ihre Entscheidungen Verzerrungen enthalten? «Wenn Datenpunkte Menschen sind, bekommt diese Analyse ein viel grösseres Gewicht, denn die Fehler haben Konsequenzen für das Leben echter Menschen», sagt Wallach. Noch gebe es keine Lösung. Doch immer mehr Forscher schliessen sich einer Bewegung für Transparenz und Fairness im maschinellen Lernen an.
Deren erste Versuche sind indes ernüchternd: Möglicherweise liessen sich die Vorurteile der künstlichen Intelligenz loswerden, indem man alle Informationen aus den Daten löscht, die eine Diskriminierung verursachen könnten – beispielsweise Hinweise auf das Geschlecht oder die Hautfarbe, so eine Idee. Sie führte nicht zum Ziel. Sondern zu der Erkenntnis, dass künstliche Intelligenzen von allen möglichen Informationen aus auf die Hautfarbe schliessen – in den USA beispielsweise korrelieren Wohnort und Lebensumstände mit der Hautfarbe – und dass Menschen kaum eine Chance haben, alle von den Algorithmen errechneten Zusammenhänge zu entschlüsseln. Denn Maschinen sind beeindruckend gut darin, Muster in Daten zu finden – ein Vorteil, der sich an dieser Stelle zum Nachteil verkehrt.
Dem pflichtet auch Peter Staar von IBM Research in Zürich bei: Eine Verzerrung in den Daten zu entdecken, sei schwierig und nicht immer möglich, sagt Staar, der zwar in einer eher technischen Domäne arbeitet – er versucht, die Eigenschaften neuer Materialien von künstlicher Intelligenz berechnen zu lassen –, dort aber ebenfalls mögliche Fehler künstlicher Intelligenzen untersucht. Eine Möglichkeit bestehe darin, «Ausreisser» in den Daten zu identifizieren: Werte, die scheinbar nicht ins Bild passen. «Das ist ein traditioneller Weg der Wissenschaft, um neue Ideen zu entdecken», sagt er. Nur kann sich hinter einem Ausreisser der Weg zu etwas Neuem verbergen oder ein Berechnungsfehler. Oder der auffällige Datenpunkt weist auf fehlende Daten hin, sozusagen ein Loch im Datensatz, wie bei der eingangs erwähnten Internetsuche nach dem Begriff «Hand». Staar hält es deshalb für gefährlich, solche Technologien «blind» anzuwenden: Die Antwort einer künstlichen Intelligenz müsse für den Nutzer stets nachvollziehbar sein.
Kausalität oder Korrelation?
«Sicher wäre es gut, wenn wir Modelle bauen würden, die man einfacher verstehen kann», sagt Suresh Venkatasubramanian von der University of Utah, «nur wie?» Seit mehr als zehn Jahren beschäftigt sich der Informatiker mit der Frage, wie die Entscheidungen von Algorithmen zuverlässiger werden können. Wenn Menschen die Ergebnisse überprüfen und den Weg der Erkenntnis nachvollziehen könnten, wenn sie beispielsweise sehen könnten, welche Faktoren in den Daten der Algorithmus als besonders gewichtig wertet, wäre schon einiges getan. Erste Ansätze in diese Richtung gibt es bereits – doch selbst Menschen fällt es schwer, die Zusammenhänge in Daten richtig zu deuten. «Kausalitäten aus Korrelationen zu extrahieren, das ist das Schwierigste», sagt Venkatasubramanian seufzend.
Auch umgekehrt gilt: Was nach Vorurteilen aussieht, müssen nicht immer welche sein. Das zeigte unlängst ein kleiner «Skandal» bei Facebook. Ein ehemaliger Mitarbeiter hatte Daten veröffentlicht, laut denen Informatikerinnen ihren Code deutlich häufiger überarbeiten müssen als ihre männlichen Kollegen. Werden Frauen bei Facebook also diskriminiert? Der Schluss liegt nahe, aber die Firma widersprach: Das Ergebnis spiegele lediglich wider, dass mehr Frauen unter den jungen Mitarbeitern seien. Weil Junge noch lernen, bekommen sie auch mehr Kritik als Ältere. Nehme man die Gruppe der Jungen als Massstab, sei das Risiko, kritisiert zu werden, für Frauen nicht höher als das für Männer.
«Die Frage der Gleichbehandlung hängt also auch davon ab, wie man seine Daten gruppiert», sagt dazu Venkatasubramanian. Würde man alle Männer und Frauen gleich behandeln, dann wären die jungen Männer im Nachteil: Ihr Code würde übermässig häufig zurückgewiesen, da ihnen mehr junge Frauen gegenüberstehen. Dieses sogenannte Simpson-Paradoxon macht die Sache kompliziert, denn es zeigt, dass Diskriminierung nicht ohne weiteres mit mathematischen Methoden fassbar ist: «Wir müssen die gleichen Daten unterschiedlich interpretieren», sagt Venkatasubramanian.
Doch Maschinen können nur rechnen. Ob sie das jemals verstehen werden?

https://www.nzz.ch/wissenschaft/selbstlernende-algorithmen-kuenstliche-intelligenz-voller-vorurteile-ld.1313680