FYI.

This story is over 5 years old.

Stuff

Flickr verwechselt Schwarze mit Affen und KZs mit Klettergerüsten

Wenn man sich zu sehr auf moderne Technik verlässt, wird ein fortgeschrittener Bilderkennungs-Algorithmus zum pietätlosen Rassisten.

Ganz bestimmt kein Kinderspielplatz: Das Konzentratioslager in Auschwitz. Foto: tsaiproject | Flickr | CC BY 2.0

Dass die moderne Technik noch nicht so weit ist, wie wir manchmal glauben mögen, erkennt man immer dann, wenn Automatismen uns wichtige Arbeit abnehmen sollen—zum Beispiel das Taggen von Freunden auf Facebook-Fotos. Vielleicht bin ich meinem Vater aber auch wirklich aus dem Gesicht geschnitten und der Algorithmus kann rein gar nichts dafür. Wer weiß das schon. Tatsächlich problematisch wird es allerdings dann, wenn das automatische Tagging nicht nur Familienmitglieder oder Freunde verwechselt, sondern Dinge vorschlägt, die auf moralischer und Pietäts-Ebene einfach nur falsch sind. So geschehen bei der Foto-Community-Seite Flickr.

Anzeige

Die hatte vor nicht allzu langer Zeit ein Auto-Tagging-System eingeführt, das ihren Usern das nervige Fotobeschriften zumindest zum Teil abnehmen sollte. Ein Beispiel: Wenn ein Hobby-Naturfotograf seine ambitionierten Nahaufnahmen einer Blumenwiese in 500-facher Ausführung hochlädt, wird er nicht mehr unter jedes einzelne Bild „Blume", „Natur" oder „Wiese" schreiben müssen. Zugleich ordnet die Funktion die Fotos außerdem bestimmten Kategorien wie „Schwarz-Weiß" oder „Muster" zu.

Hier spricht Fotograf Ren Hang über Zensur in China, nackte Menschen und seine Freunde.

Klingt super, oder? Nun ja. Zumindest bis zu dem Moment, an dem du als dunkelhäutiger Mensch ein Bild von dir oder deiner Familie hochlädst und die „fortgeschrittene Bilderkennungstechnik" dich mit „Tier" oder „Affe" vertaggt. Dahinter eine Rassen-Agenda zu vermuten, wäre falsch. Dem Guardian zufolge ist dasselbe nämlich zumindest auch einer weißen Frau passiert. Trotzdem: In Anbetracht der Tatsache, dass dunkelhäutige Menschen sich von rassistischen Arschlöchern oftmals genau solche Begriffe anhören müssen, ist das durchaus ein Problem, das zum einen sofort beseitigt, zum anderen sensibel behandelt werden sollte. Insbesondere seitens der Foto-Website.

Flickr hingegen scheint die Sache nicht so richtig eng zu nehmen. Schließlich könne man unpassende Tags ja einfach löschen. Gegenüber dem Guardian erklärte ein Sprecher der Seite: „Wir wissen von Problemen beim Auto-Tagging auf Flickr und arbeiten an einer Lösung." Irgendeine Entschuldigung an die Leute, die das Benutzungserlebnis an den Besuch einer NPD-Demo erinnert haben dürfte? Fehlanzeige.

Motherboard: Der Kampf gegen rassistische Emojis.

„Wenn ein unpassender Tag gelöscht wird, lernt unser Algorithmus daraus und wird in Zukunft besser funktionieren. Dieser Tagging-Prozess ist komplett automatisiert—kein Mensch wird sich jemals die Fotos anschauen, um sie mit Tags zu versehen."

Der Algorithmus scheint übrigens nicht nur ein automatisierter Rassist, sondern auch im Allgemeinen absolut pietätlos zu sein. Bilder von Konzentrationslagern, darunter Aufnahmen von Dachau und dem weltbekannten Tor von Auschwitz, wurden scheinbar mit „Sport" und „Klettergerüst" vertaggt. Immerhin: Den Auto-Tag „Affe" hat der Dienst mittlerweile komplett entfernt.