Kontroverse um KI

Was das Problem an der Künstlichen Intelligenz ist, die Schwule erkennt

Eine neue KI erkennt an nur einem Foto, ob jemand schwul ist und sorgt für erbitterten Streit. Der Entwickler behauptet: "Ich warne vor einer existierenden Gefahr".

von Juliane Görsch
12 September 2017, 10:25am

Eine Künstliche Intelligenz (KI) kann anhand eines Fotos erkennen, ob eine Person homosexuell ist oder nicht – und das mit höherer Treffsicherheit als ein Mensch. Schlagzeilen wie diese garantieren sofortige Aufmerksamkeit. In den letzten Tagen wurde die dazugehörige Studie zweier Forscher der Stanford Universität heiß diskutiert – vor allem aufgrund ihrer Bedeutung für die Privatsphäre.

LGBT-Aktivisten kritisieren die Studie als „junk science", andere Wissenschaftler verurteilen sie als unethisch und verzerrend. Dazu kommt: Der Autor der Studie ist kein Unbekannter. Der Psychologe Michal Kosinski geriet schon letztes Jahr in die Kritik, als seine Forschungsergebnisse die Grundlage für die kontroverse Firma Cambridge Analytica lieferte.

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Cambridge Analytica hatte von Kosinski erstellte psychologische Profile von Social Media-Nutzern verwendet, um für die Trump- und Brexit-Kampagne extrem personalisierte Werbung gezielt auf Facebook auszuspielen. Sowohl die Methoden von Cambridge Analytica als auch Kosinski selbst gerieten daraufhin in die Kritik – auch wenn sich am Ende herausstellte, dass die Firma gar keinen so großen Einfluss auf die Wahl gehabt hatte, wie von einigen befürchtet.

Die genauen Ergebnisse der neuen Studie von Michal Kosinski und Yilun Wang klingen auf den ersten Blick trotzdem sensationell: Der Algorithmus erkannte anhand eines Fotos in 81 Prozent der Fälle, dass es sich dabei um einen homosexuellen Mann handelte. Lesbische Frauen erkannte er in 71 Prozent der Fälle. Die Forscher starteten anschließend einen Test, bei dem Menschen die gleichen Fotos identifizieren mussten.

Sie fanden die Testpersonen auf der Crowdsourcing-Plattform Amazon Mechanical Turk. Hier können Laien gegen Bezahlung als "menschliche AI" an Studien teilnehmen. Die Teilnehmer entschieden bei Männern in 61 Prozent der Fälle korrekt und bei Frauen in 54 Prozent – letzteres Ergebnis ist also kaum mehr als glücklich geraten. Das zeigt: Die KI von Kosinski und Wang erkennt Homosexuelle an Merkmalen, die Menschen verborgen bleiben.

Weibliche Durchschnittsgesichter zusammengesetzt aus Fotos, die die KI als hetero- und homosexuell erkannt hat. Bild: Kosinski & Wang | Stanford University

Für die Studie hatten die Forscher Fotos von 36.630 Männern und 38.593 Frauen von einer nicht genannten Online-Dating-Plattform gesammelt. Wie Kosinski gegenüber Motherboard bestätigt, war diese Methode der Datenbeschaffung zuvor vom Institutional Review Board (IRB) autorisiert worden. Beim IRB handelt es sich um ein Ethik-Kommitee zum Schutz von menschlichen Testpersonen in der Forschung. Was das genau bedeutet, führte Kosinski nicht weiter aus.

Auch wenn die Forschung objektiv richtige Ergebnisse liefert, ist sie nicht automatisch ethisch vertretbar

Eigentlich verlangen die Richtlinien des IRB, dass von jeder Testperson eine Einverständniserklärung vorliegt. In Studien, die ein geringes Risiko für die Teilnehmer bedeuten und sich das Sammeln der Unterschriften unpraktisch gestalten würde, kann auf eine Einverständniserklärung allerdings verzichtet werden. "Wir haben nur öffentlich verfügbare Bilder verwendet", erklärt uns Kosinski dazu. Öffentlich ist aber nicht gleichbedeutend mit Einverständnis, was in der Vergangenheit schon zu Verletzungen des Datenschutz geführt hat, beispielsweise als dänische Forscher für eine Studie öffentliche Daten von 70.000 Nutzern der Dating-App OkCupid unanonmyisiert verwendeten. Ob die über 70.000 Personen, deren Bilder von Konsinski und Wang verwendet wurden, nach ihrer Zustimmung an der Untersuchung gefragt wurden, ist damit nicht klar.

Im Anschluss wurde ein künstliches neuronales Netzwerk (KNN) mit diesen Fotos von zu gleichen Teilen homo- und heterosexuellen weißen Amerikanern im Alter von 18 bis 40 Jahren trainiert. Das KNN erkannte bestimmte Muster in den Gesichtern der Personen, die für das menschliche Auge erst einmal unsichtbar sind. Die Ergebnisse lesen sich trotzdem wie eine Sammlung von Schwulen- und Lesben-Klischees: "Schwule Männer haben schmalere Kiefer und Nasen, während Lesben breitere Kiefer haben", "Schwule Männer haben weniger Gesichtsbehaarung, die entweder auf Unterschiede in Haarwuchs oder Pflegegewohnheiten oder beides hindeuten", "Lesben nutzen weniger Augen-Makeup, haben dunklere Haare und tragen weniger freizügige Kleidung."

Wer bei Formulierungen wie "durchschnittliches Gesicht schwuler Männer" in der Studie zusammenzuckt, hat allen Grund dazu. Pseudo-wissenschaftliche Forschung, bei der Gesichtsmerkmalen bestimmte Eigenschaften zugeschrieben werden, war in der Vergangenheit zu oft rassistisch oder homophob motiviert. Dubiose Disziplinen wie Phrenologie und Kraniometrie, also die Vermessung von Gehirn und Schädel zur Ableitung von Persönlichkeitsmerkmalen, erlebten zuletzt im Nationalsozialismus eine Hochzeit und kosteten vielen Menschen das Leben.

Eine derartige Software zu entwickeln, wird in dem Moment falsch, wo sie Menschenleben riskiert

Auch wenn heutige Forschung mit Computern und künstlichen neuronalen Netzwerken Ergebnisse liefert, die objektiv richtig sein mögen, bedeutet das nicht automatisch, dass die Forschung auch ethisch vertretbar und unproblematisch ist.

So schreibt Greggor Mattson, Soziologe am Oberlin College in Ohio, in einem Blogeintrag über die Studie: "Die KI kann dir nicht sagen, ob du schwul bist – sie kann dir nur sagen, ob du ein lebendes Klischee bist". Auch Kate Crawford, die die sozialen Folgen der KI-Foschung untersucht, kritisiert die Studie auf Twitter als „nur mehr KI-Phrenologie".

Zu den weiteren Kritikern der Studie zählt auch Dr. Björn Schuller, Inhaber des Lehrstuhls Complex & Intelligent Systems an der Universität Passau. Er betont im Gespräch mit Motherboard, dass er solche Fragestellungen wie in der aktuellen Studie von Kosinski und Wang bisher aus gutem Grund nicht untersucht hat. Das Hauptproblem seien die ethischen Probleme, die die Methode aufwerfe und dass die Forschungsergebnisse anfällig für Missbrauch seien. Außerdem sei die Methode nicht besonders sensationell und präsentiere keine nie zuvor dagewesene künstliche Intelligenz, erklärte er gegenüber Motherboard.

Im Gegenteil: die eingesetzten Tools sind jedem Forscher, der sich mit Maschinenlernen beschäftigt, gut bekannt und teilweise frei verfügbar. Darauf verweisen auch Kosinski und Wang. Sie haben keine neue Methode entwickelt, sondern nur gezeigt, was mit gewöhnlicher Technologie und genügend Daten heute möglich ist.

"Leute neigen dazu, zu glauben, die Maschine sei besser, als sie es tatsächlich ist"

"Im Grunde genommen, könnte ich mir etwas Beliebiges ausdenken – Erkennung von Erkältungen oder Persönlichkeitstypen zum Beispiel – und das System anhand dieser gelabelten Bilder trainieren. Am Ende erkennt das System immer Muster", sagt Schuller. Dass bisher noch niemand solche Ergebnisse geliefert hat, ist mit großer Wahrscheinlichkeit eine bewusste Entscheidung der Wissenschafts-Community.

Das Gefährliche daran sei nämlich, dass Computer eben auch Fehler machen, gerade im statistischen maschinellen Lernen. "Leute neigen dazu, zu glauben, die Maschine sei besser, als sie es tatsächlich ist", sagt Schuller. Die 81 Prozent Trefferquote bei der Erkennung homosexueller Männer aus der Studie scheinen zwar auf den ersten Blick beeindruckend. Sie bedeuten aber auch, dass 19 von 100 Personen falsch erkannt werden. Außerdem scheitern solche KIs an Nuancen und Ausnahmen von der Regel, was auch stereotype Ergebnisse wie "Schwule haben ein etwas weiblicheres Gesicht, Lesben ein etwas männlicheres" erklärt.

Eine derartige Software zu entwickeln, wird in dem Moment von moralisch fraglich zu falsch, wo sie Menschenleben riskiert. In vielen Ländern steht Homosexualität noch immer unter Strafe, in einigen wie Saudi Arabien oder Iran sogar der Todesstrafe. Sollten diese Regierungen beginnen, mit einer ähnlicher KI ihre Bürger zu durchleuchten, um Schwule und Lesben zu outen, würde das definitiv Menschenleben gefährden – und das unabhängig davon, wie genau oder ungenau so ein Algorithmus ist. Der alleinige Fakt, dass eine solche Software existiert und – wie Björn Schuller sagt – "marktschreierisch präsentiert wird", ist allein aus diesem Grund schon nicht mehr vertretbar.

"Ich warne vor einer existierenden Gefahr und kreiere keine neue"

Der Mann, den diese geballte Kritik trifft, hat seine Forschung in den vergangenen Tagen unermüdlich verteidigt. In den Medien sowie in einem öffentlichen Google Dokument, stellt sich Michal Kosinski den häufigsten Fragen zu seiner Studie. Er und Wang argumentieren, dass die Durchführung und Veröffentlichung solcher Ergebnisse dazu beitragen, dass Regelungen getroffen werden, die die Anwendung solcher Software unterbindet.

"Damit dieses Post-Privacy-Zeitalter sicherer wird, braucht es gut informierte Menschen, die radikal intolerant gegenüber Intoleranz sind", schreiben sie in ihren Anmerkungen. Mattson verteilt in seinem Blogeintrag eine verbale Ohrfeige für diese naive Sicht auf die Welt: "Bis wir alle in dieser Fantasiewelt von Kosinski und Wang leben, schulden sie uns Werkzeuge und Strategien, um uns vor Algorithmen wie den ihren zu schützen. Wenn sie das tun, müssten sie aber erst von ihren hohen Rössern herunterkommen."

Gerade nach dem Artikel „Ich habe nur gezeigt, dass es die Bombe gibt", der beschreibt, wie Cambridge Analytica Kosinskis Methoden kopierte, um Wahlen zu beeinflussen, müsste dem Psychologen seine Verantwortung doch bewusst sein. Angesprochen darauf, sagte Kosinski gegenüber Motherboard: "Das Problem ist, dass niemand zuhören will. Menschen tun die Warnungen als Pseudo-Wissenschaft ab, nur um in ein paar Jahren mit den Konsequenzen aufzuwachen."

Unternehmen hätten Vorhersagen basierend auf dem digitalen Fußabdruck schon lange benutzt, bevor er seine Ergebnisse 2013 veröffentlichte. Cambridge Analytica sei nur die bekannteste, aber nicht die einzige Firma gewesen. Auch heute würden Regierungen und Unternehmen schon längst Gesichtserkennungs-Software benutzen, um Menschen zu tracken. "Ich warne vor einer existierenden Gefahr und kreiere keine neue", sagt Kosinski und klingt erneut wie in dem Artikel mit der Bombe.