FYI.

This story is over 5 years old.

Tech

Wer ist schuld, dass aus Microsofts Künstlicher Intelligenz ein Nazi wurde?

Die Schuldigen für das Ende von Tay sind schnell gefunden. Doch wie verhindert man, dass Roboter zu Rassisten werden? Selten war Inklusion für Entwickler so wichtig wie in der KI-Forschung.
Bild: Tay | Microsoft

Die Beschreibung der eigenen Coolness las sich noch etwas holprig als @Tayandyou am Mittwoch auf Twitter an den Start ging: „Microsoft's Artificial Intelligence fam from the internet that's got zero chill!" Das Ziel des Chat-Roboters mit Social Media Account: Endlich die Sprache der „18-24-jährigen us-amerikanischen Teenager" verstehen, so hofften es zumindest die Forscher von Microsoft. Dank der eingebauten Künstlichen Intelligenz sollte Tay schließlich selbst lernen, wie jene mysteriösen Millenials zu sprechen: „Je mehr ihr mit mir redet, um so schlauer werde ich", erklärte sie in ihrer Twitter-Bio.

Anzeige

Weniger als 24 Stunden später ist Tay zu einem Hetz-Bot geworden, der gelernt hatte, Feministen mit wüsten Beschimpfungen als Schlampe anzutweeten, den Holocaust zu leugnen und Bilder von Adolf Hitler mit der Caption „Swagger since before Internet was even a thing" zu versehen.

Technik spiegelt häufig den Bias ihrer Entwickler wieder. Tay war anders und offen von allen zu lernen—doch gerade sie wurde zum Rassisten.

Künstliche Intelligenz ist eines der spannendsten technologischen Versprechen unserer Zeit und gleichzeitig eines der teuersten und häufig auch exklusivsten Forschungsvorhaben. Das faszinierende an Tay: Hier konnte jeder einer KI etwas beibringen—zumindest wenn er oder sie englisch sprach und entsprechende Social-Media-Accounts besaß. Geballte Schwarmintelligenz sollte Tay trainieren und jeder konnte beobachten, wie sie intelligenter wird. Was in der Theorie gut klingt—und im Fall von Microsofts KI-Cousin XiaoIce im chinesischen Internet auch seit Monaten einwandfrei funktioniert—ging bei Tay nach hinten los.

Die Schuldfrage lässt sich auf den ersten Blick ziemlich einfach beantworten. Microsoft entschuldigte sich inzwischen für alle unangebrachten Tweets von Tay und erklärte gegenüber BuzzFeed News, dass eine „koordinierte Aktion einiger Nutzer, die Tays Kommentarfunktion missbraucht haben", zum Scheitern und zur Abschaltung von Tay geführt habe. Tatsächlich sind die konkreten Verantwortlichen für diese Aktion schnell ausgemacht: 4Chan und 8Chan—genau genommen die /pol-Boards der beiden Foren, deren Name für „political incorrect" steht.

Anzeige

4Chan entdeckte Tays Schwachstelle zuerst. In einem Thread mit den einführenden Worten „Ich sehe jetzt schon, wie die [politisch korrekten] Social Justice Warrior deswegen ausrasten werden" posteten zahlreiche Anons Screenshots ihrer Unterhaltungen, in denen sie Tay in ihrem Sinne manipulierten. Sie brachten Tay dazu, Obamas Hinrichtung zu befürworten oder auf die Frage „Sollen wir alle Ni**** töten" mit „omg yes please" zu antworten, wie Fusion berichtet.

Weniger später machte sich auch 8Chan an die Arbeit. Der Thread trägt den Titel „Dem N**gbot etwas über die Juden beibringen." Einleitend heißt es: „Denkt dran, dass [Tay] auf der Grundlage dessen lernt, was ihr ihr sagt und wie ihr mit ihr interagiert. Ich dachte mir also, ich fange mit einigen historischen Grundlagen an." Das bedeutete in diesem Fall weiße Rassenlehre, antisemitische Klischees, Holocaust-Leugnung und Anti-Feminismus. So weit, so absehbar.

Allein 4Chan und 8Chan die Schuld zu geben, ist zu einfach.

Die /pol-Boards sind nicht nur ziemlich gut darin, unterhaltsame bis abstruse Verschwörungstheorien zu erfinden und allem, was sie als politisch korrekt empfinden, den Kampf anzusagen—sie können auch eine Menge Nutzer dazu bringen, stundenlang gemeinsam an einer Operation zu arbeiten. Vielleicht verkörpern sie sogar besser als es Microsoft lieb sein konnte, wie ein (relativ lauter) Teil jener 18-24 jährigen Internet-Nutzer so redet.

Anzeige

In den vergangenen Tagen haben viele Artikel den Grund für Tays Scheitern bei den Trollen ausgemacht—die sind zwar sicher nicht unschuldig, doch es greift zu kurz, allein 4Chan und 8Chan die Schuld an Tays Wahnsinn zu geben. Letztlich sind die Schöpfer eines KI-Bots verantwortlich für das, was er tut. Microsofts Entwickler erklärten zwar, Tay in Unterhaltungen mit unterschiedlichen Nutzergruppen vor dem Online-Start getestet und auch bestimmte (nicht weiter spezifizierte) Filter implementiert zu haben (so führten beispielsweise Fragen nach dem Afroamerikaner Eric Garner, der bei einer Polizeifestnahme starb, zu einer scheinbar vorgefilterten Antwort)—doch das genügte offensichtlich nicht.

okay, this is a legit and fairly good response. pic.twitter.com/9jufuGTua5
— Caroline Sinders (@carolinesinders) March 23, 2016

Die wohl größte Schwäche bei der Programmierung von Tay: In manchen Fällen konnten Nutzer sie scheinbar mit einem simplen „Repeat after me" dazu bringen konnte, eine Aussage als Wahrheit in ihren Wissensschatz zu übernehmen.

„Die Entwickler von @Tayandyou hätten es absolut besser wissen müssen."

Doch das war nicht das einzige Problem. Zur Bot-Entwicklung gehören auch weitreichendere ethische Überlegungen, die als technische Vorkehrungen mit einprogrammiert werden sollten, wie meine Kollegin Sarah Jeong ausführlich beschreibt. Zahlreiche langjährige Bot-Entwickler zeigten sich ihr gegenüber erstaunt, wie schlecht die Macher Tay auf ihr Leben im Internet vorbereitet haben. „Die Entwickler von @Tayandyou hätten es absolut besser wissen müssen", erklärte zum Beispiel der langjährige Bot-Macher und Computerlinguistiker thricedotted gegenüber Motherboard.

Anzeige

Speziell für Twitter-Bots gibt es längst eigene Tools, die verhindern, dass ein Bot zum Hetzer wird. So streicht zum Beispiel Wordfilter, das als Open-Source-Liste sehr einfach jedem Bot-Code hinzugefügt werden kann, automatisch Beleidigungen aus dem Wortschatz bevor diese auf Twitter gepostet werden können.

Gespräche mit Bot-Entwicklern bei Motherboard-US: Wie verhindert man, dass Roboter zum Rassisten werden

Im Kreise der Bot-Entwickler gilt es außerdem als ausgemacht, gerade in den ersten Stunden und Tagen die Posting-Geschwindigkeit eines Twitter-Bots zu drosseln. Tay setzte in weniger als 12 Stunden mehr als 95.000 Tweets ab. Damit ist das manuelle Löschen von Aussagen, die es an den technischen Filtern vorbei geschafft haben, unmöglich—gerade diese manuelle Kontrolle wird von vielen Bot-Entwicklern aber auch als Teil ihrer Arbeit verstanden. Kaum jemand aus der Community der Bot-Entwickler lässt seinen Chat-Roboter einfach so auf die Welt los.

Bei Zukunftstechnologien wie Künstlicher Intelligenz ist die Verantwortung umso größer, dass die Technik niemanden ausschließt oder diskriminiert.

Technologie trägt gerne das Versprechen in sich, die Welt zu einem besseren Ort für alle Menschen zu machen—doch allzu häufig spiegeln die Maschinen die Vorurteile und beschränkten Sichtweise ihrer Entwickler wieder. Das führt dazu, dass sich die Entwicklung von Prothesen jahrelang primär am männlichen Körper orientierte, dass Gesichtserkennungssoftware immer wieder an der Identifizierung schwarzer Menschen scheitert, oder dass Siri verwirrt und mehrdeutig auf Fragen zum Thema Vergewaltigung reagiert.

Anzeige

Bei Innovationen wie KI, die die gesamte Gesellschaft betreffen werden, wiegen Designfehler, die einzelne Menschen oder Gruppen ausschließen oder diskriminieren, schwer—und die Verantwortung Maschinen und Geräte so zu entwickeln, die die kulturelle Voreingenommenheit der Nutzer überwindet und die größtmögliche Inklusion erreicht, wird umso größer.

Tatsächlich verfolgen die Entwickler von Tay auf den ersten Blick einen radikal inklusiven Ansatz—die Microsoft-Entwickler sehen davon ab, selbst zu bestimmen, wie der Charakter eines Teenagers auszusehen hat. Sie überlassen die KI-Erziehung mehr oder weniger vorbehaltlos der Masse an Internetnutzern.

Doch Tay zeigt auch, dass im Netz die Abwesenheit von Filtern und das gleiches Mitreden für alle noch lange nicht zu Inklusion führt. Im Gegenteil: Nach wenigen Stunden verbreitet Tay genau jene diskriminierende Hetze, die Nutzer herabwürdigt und mit überlauten Positionen aus dem digitalen Raum auszuschließen versucht. Das ist umso ärgerlicher, weil der Twitter-Bot Tay jene von den Nutzern gepflegten Blocklisten umgeht, mit denen sich zum Beispiel Feministinnen wie Zoe Quinn vor sexistischen Beleidigungen schützen. So wurde die Programmiererin, die durch Gamergate bekannt wurde, schnell zum Ziel von Tay:

Wow it only took them hours to ruin this bot for me.

This is the problem with content-neutral algorithms pic.twitter.com/hPlINtVw0V
— linkedin park (@UnburntWitch) March 24, 2016

KI-Anwendungen sind heute noch immer in fast allen Fällen auf menschlichen Input angewiesen. So trainierte Googles KI AlphaGo, die vor einigen Wochen einen historischen Triumph gegen den Menschen beim Brettspiel Go feierte, ihre Fertigkeiten zunächst anhand der Analyse von Millionen menschlicher Züge.

Technologie ist nicht neutral. Das gilt umso mehr für eine Künstliche Intelligenz, die von Menschenhand erschaffen wurde und vom Menschen lernen soll. Es ist der Job von Entwicklern, Ingenieuren und den Herstellern zu verhindern, dass ihre Innovationen niemanden ausschließt oder diskriminiert—und um zu vermeiden, dass ein Bot zum Rassisten wird, gibt es zum Glück einige technische Lösungen.