Anzeige
Tech

Apples verzweifelte Reaktion auf das Hardcore-Porno-Problem von iOS 10

Wie konnte Apple nur vergessen, dass sich mit dem jüngsten Update auch Hardcore-Pornos und Nazi-GIFS in iMessage ausbreiten würden?

von Motherboard Staff
16 September 2016, 11:07am

Die allgemeine Euphorie rund um das iOS 10-Update begann mit Konfetti, Laserschrift und Super Mario-Stickern, mit denen sich erfreute Apple-Jünger auf iMessage gegenseitig überhäuften. Auch die integrierte Erweiterung #Images sorgte für Jubelstürme, denn auf einmal ließen sich ganz ungeniert jede Menge GIFs verschicken. iOS 10 gilt zu Recht als eines der wichtigsten Updates in der Geschichte von Apples mobilem Betriebssystem, und auch die Neuerungen in iMessage zeigten das besonders eindrucksvoll.

Bis dann auf einmal jemand den Suchbegriff „butt" eingab. Die Suchmaschine von Bing, welche die GIFs für #Images in den Untiefen des Netz aufstöbert, kredenzte das animierte My Little Pony—in einer ungewohnt anzüglichen Version. Auch was #Images bei den Begriffen „tits", "dick" oder sogar „huge" auspackte, war wohl nicht gerade das, was Tim Cook unter „Enriching Lives" versteht. Stattdessen: Purer Hardcore-Porn—ohne jegliche Altersbeschränkung

Mit anderen Worten: Bei Apple hatte sich anscheinend niemand darüber Gedanken gemacht, dass #Images tatsächlich alle Bing-Treffer ungefiltert übernimmt. Das Microsofts Suchmaschine im Vergleich zur Konkurrenz gerne mal ein Auge zudrückt, was explizite Inhalte angeht, stellten porno-affine Redditor schon vor geraumer Zeit fest.

Apple reagierte derweil fix und ließ anscheinend nach und nach einzelne Suchbegriffe, die obszöne Inhalte zutage förderten, gleich komplett sperren. Doch natürlich verrichteten die Entwickler an ihren Schreibtischen in Cupertino nichts weiter als eine Sisyphos-Arbeit. Je mehr Suchbegriffe gesperrt wurden, desto kreativer wurden die iMessage-Nutzer, von denen manche ihre Entdeckungen triumphal ins Netz posteten .

Und dann kam es sogar noch schlimmer: Auf die Suche nach dem vermeintlich unverfänglichen Begriff „Power", spuckte der Algorithmus ein GIF mit vier Power Rangers aus, die den Hitlergruß zeigen. Im Hintergrund prangt ein riesiger Hakenkreuz und schließlich erscheint der Schriftzug" „Heil Hitler"—wieder gab es keinerlei Beschränkungen, die das in manchen Ländern verbotene Symbol hätte blocken können.

Unerwarteter Sexismus und Rassismus hatten derweil schon Chatboy Tay vom Vorzeigeprojekt zum PR-Debakel für Microsoft verwandelt: Tay, der eigentlich selbständig lernen sollte, im Netz „wie ein Teenager" zu reden, mutierte binnen 24 Stunden zur antisemitisch pöbelnden Nazi-KI.

Warum es noch immer menschlichen Input braucht, um rassistische KIs in den Griff zu bekommen

Genau wie das Projekt Tay zeigt auch #Images in iOS 10, wie kompliziert es sein kann, adäquate Filtersysteme zu implementieren, wenn die Daten auf den kollektiven Eingaben einer riesige Nutzerschaft basieren, wie es bei Bing oder auch bei Foren wie 4Chan der Fall ist Dass selbst für einen nicht mit den letztlich angezeigten kritischen Inhalten konnotierter Begriff wie „Power" anscheinend ein Filter erforderlich ist, macht dieses Problem nur noch deutlicher.

Und während Microsoft Chatbot Tay schließlich komplett vom Netz nahm (er meldete sich noch einmal überraschend als Kiffer zurück), griff nun auch Apple scheinbar zu einer drastischen Maßnahme: Auf einmal ist #Images spurlos aus iMessage und auch dem angeschlossene Store verschwunden, wie zahlreiche Nutzer aus Deutschland und den USA ungefähr seit gestern Abend berichten.

Anscheinend hat auch Apple im Fall #Images erstmal die Reißleine gezogen. Ob die Erweiterung nun überarbeitet, eine andere Suchmaschine integriert oder #Images gar nicht mehr zurückkommen wird, ist derweil unklar. Eine entsprechende Anfrage von Motherboard an Apple blieb bisher unbeantwortet.