Montag, 12. Juni 2017
Künstliche Intelligenz ist gar nicht so intelligent.
Künstliche Intelligenz (KI) gilt als unbestechlich, emotionslos, objektiv.
Doch wer genauer hinsieht, findet Vorurteile und Klischees. Woher kommen die?
Um einem Computer das Sprechen beizubringen, lässt man diesen heute gewaltige Textmengen durchforsten wie z.B. Zeitungsarchive, Websites oder digitale Bibliotheken. Das funktioniert ganz gut:
Die künstliche Intelligenz (KI) ermittelt etwa statistische Regelmäßigkeiten wie die Häufigkeit bestimmter Wortkombinationen. Am Ende hat das System sich mehr oder weniger anwendbares Deutsch angeeignet – aber, wie sich zeigt, auch eine ganze Menge Vorurteile.
Diese Vorurteile stecken unweigerlich in den Trainingsdaten drin, wenn auch häufig wenig offensichtlich.
Die Diskussion darum, wie die Forschung mit dieser Tatsache umgehen soll, nimmt gerade an Fahrt auf und hat nun durch eine aktuelle Studie im Magazin "Science" neue Nahrung bekommen. Forscher um die Informatikerin Aylin Caliskan von der Princeton University zeigen darin, dass entsprechende Algorithmen die gleichen impliziten rassistischen und sexistischen Stereotypen reproduzieren wie Menschen.
Um das nachzuweisen, haben Caliskan und Kollegen ein Verfahren abgewandelt, das seit Längerem in der psychologischen Forschung zum Einsatz kommt. Es soll gerade solche Vorurteile und Wertvorstellungen zum Vorschein bringen, die Menschen in Fragebögen ungerne zugeben.
Bei diesem Implicit Associations Test (IAT) messen Forscher die Reaktionszeit, die ein Mensch benötigt, um zwei Begriffe miteinander in Verbindung zu bringen. Kommen dem Probanden die hinter den Ausdrücken stehenden Konzepte semantisch ähnlich vor, ist seine Reaktionszeit kürzer, als wenn die Konzepte einander zu widersprechen scheinen. Beispielsweise zeigt der Test, dass die meisten Menschen die Namen von Blumen schneller mit Worten wie "schön" oder "hübsch" assoziieren und die Namen von Insekten schneller mit negativen Begriffen.
Mit dem bereits 1998 entwickelten Verfahren lassen sich nach Meinung seiner Verfechter verborgene Ansichten ans Tageslicht bringen, weil es schwer, wenn nicht gar unmöglich sei, "politisch korrekt" zu reagieren. Denn die Reaktionszeit lässt sich bewusst kaum beeinflussen.
In ihrer Abwandlung des IAT ermittelten Caliskan und Kollegen allerdings nicht die Reaktionszeit ihrer KI. Sie machten sich den Aufbau des erlernten Wissensspeichers zu Nutze. In einem Fall ließen sie den Computer mit Hilfe des so genannten "Word-to-Vec"-Verfahrens lernen, das Wörter als Vektoren darstellt, abhängig davon, welche anderen Wörter in ihrem Umfeld häufig auftauchen. Auch hier lernte die KI selbstständig, welche Begriffe zusammengehören. Das Lehrmaterial bildete eine der größten computerlinguistischen Datensammlungen der Welt, das "common crawl corpus" mit 840 Milliarden Wörtern aus dem englischsprachigen Internet.
Männer für Mathe, Frauen für Kunst?
Anschließend ermittelten die Forscher die Distanz zwischen zwei Paaren von Vektoren, sie diente ihnen als analoge Maßeinheit zur Reaktionszeit der Menschen im IAT-Test. Dabei fand das Team unter anderem heraus, dass die künstliche Intelligenz Blumen ebenso wie europäisch-amerikanische Vornamen mit positiven Begriffen assoziierte. Insekten sowie afroamerikanische Namen wurden hingegen mit negativen Begriffen verbunden. Männliche Namen standen semantisch näher an Karrierebegriffen, weibliche Namen wurden eher mit Familie assoziiert. Mathematik und Wissenschaft mehr mit Männern, Kunst mehr mit Frauen. Die Namen junger Menschen wurden eher mit angenehmen, die Namen von älteren eher mit unangenehmen Dingen in Verbindung gebracht.
Erstes Zwischenfazit: Stecken wir Vorurteile in den Algorithmus rein, kommen Vorurteile aus dem Algorithmus raus.
"Mann verhält sich zu Programmierer wie Frau zu Hausfrau" – so fassten schon Mitte 2016 Forscher der Boston University und von Microsoft Research dieses Phänomen zusammen. Wenn die Bedeutung von Begriffen allein anhand statistischer Methoden definiert wird, spiegeln die Vektoren der Informatiker das Weltwissen in unseren Köpfen. Vorurteile und Klischees inbegriffen.
Letztlich ist dieses Ergebnis nicht weiter verwunderlich. Die Verzerrung in den Daten ist historisch bedingt, das ist unsere Kultur. Zudem zeigten die Assoziationen sowohl von Mensch als auch von Maschine nicht nur Vorurteile, sondern auch menschliche Wertungen, die sich über viele Jahrhunderte gefestigt haben und nun der Wahrnehmung selbst ihren Stempel aufdrücken – beispielsweise dass wir Blumen als schön empfinden. Daran ist erst mal auch nichts Negatives. Aber es werden eben auch tief verwurzelte Vorurteile abgebildet, die offenbar über die Sprache transportiert werden und so unbewusst auf uns einwirken.
Zweites Zwischenfazit: Unser Denken und unsere Weltsicht werden maßgeblich durch unsere Muttersprache beeinflusst.
Statistisch Vorurteile lernen kann auch der Mensch.
Die Analogie zwischen menschlichem Lernen und Algorithmus kann jedoch noch tiefer reichen. Auch wir erfassen womöglich die Bedeutung eines Wortes vor allem dadurch, wie es benutzt wird. So hört man beispielsweise häufig: "Ich muss jetzt nach Hause, um meine Katze zu füttern." Oder: "Ich muss nach Hause und meinen Hund füttern." Aber wir sagen nie: "Ich muss nach Hause, um meinen Kühlschrank zu füttern."
Ein Algorithmus lernt daraus, dass Hund und Katze ähnliche Konzepte sind, Kühlschrank hingegen ein anderes Konzept ist. Vermutlich lernen auch Kinder so. Nur indem sie ein Wort in vielen verschiedenen Kontexten benutzen und hören, lernen Kinder eventuell, welche Bedeutung damit verknüpft ist.
Auch für die Roboterforschung hat die aktuelle Studie deshalb eine große Bedeutung. Schließlich ist lange argumentiert worden, dass Roboter einen Körper brauchen, um die Welt wirklich zu verstehen. Der Gedanke dahinter lautet: Du kannst keine Semantik bekommen, ohne die echte Welt zu fühlen. Aber das ist nicht nötig – denn ganz offensichtlich reicht zum Beispiel allein das Lesen des Internets, um zu dem Ergebnis gelangen, dass Insekten unangenehm und Blumen angenehm sind; selbst wenn der Computer nie an einer Blüte geschnuppert oder von Moskitos gestochen wurde.
Doch unabhängig davon stehen angesichts solcher Studien alle KI-Verfahren auf dem Prüfstand, die auf der Grundlage von Trainingsdaten eigenständig lernen. Was es heißt, wenn der Algorithmus Vorurteile übernimmt und zementiert, spürten kürzlich schwarze Strafgefangene in den USA, für die ein Computer eine längere Haftzeit vorgeschlagen hatte als für weiße Kriminelle: Er hatte aus den bisherigen menschlichen Entscheidungen gelernt und die Vorurteile der Richter übernommen.
Vorurteile sind allerdings oft kaum offensichtlich, weshalb sie auch meist nicht bemerkt werden. Wir haben heute dank der Deep-Learning-Revolution mächtige Technologien – und damit stellen sich neue Fragen. Langsam wird klar, welchen Einfluss das maschinelle Lernen auf die Gesellschaft haben kann. Solche Tendenzen in den Daten werden eben manchmal erst durch den Output der Systeme sichtbar. Und das auch nur dann, wenn sich die Entwickler dem Problem bewusst sind, dass sie die Ergebnisse in Frage stellen müssen.
Ein Filter gegen Vorurteile.
Noch haben wir keine technische Lösung, wie man jene Vorurteile in den Daten systematisch aufspüren kann, die zu Diskriminierung führen können. "Damit müssen wir uns jetzt als Gesellschaft beschäftigen, denn diese Systeme sind die Grundlage für die Technologien der Zukunft. Gerade an der Schnittstelle zwischen Bild- und Texterkennung gibt es immer wieder Pannen. So hat kürzlich eine Google-Software das Foto zweier Dunkelhäutiger mit der Unterschrift "Gorillas" versehen.
Unsere Gesellschaft kann sich ändern. Aber nur, wenn wir die künstliche Intelligenz nicht auf der Basis von rassistischen und sexistischen Daten der Vergangenheit entwickeln.
Teilen: .