Motherboard

Wie viele Stereotype in den Apps stecken, die wir täglich nutzen

Die Technologien, die unseren Alltag bestimmen, sind auf gefährliche Weise voreingenommen. Woran das liegt und was wir dagegen tun können, erklärt die Autorin Sara Wachter-Boettcher im Interview.

Als zwei afroamerikanische Jugendliche im Jahr 2015 von einem Google-Algorithmus automatisch als "Gorillas" markiert wurden, war die Empörung groß. Verantwortlich für den rassistischen Bug der Software waren letztendlich deren Entwickler. Denn diese hatten der dem Programm zugrunde liegenden Künstliche Intelligenz (KI) beim Training der Fotoerkennung kaum Gesichter mit dunklerer Hautfarbe vorgelegt. Stattdessen hatte die KI überwiegend anhand von Fotos weißer Menschen gelernt.

Anzeige

Das ist nur ein Beispiel dafür, wie menschliche Voreingenommenheit in die Architektur von Apps oder Künstlicher Intelligenz einfließt und die vermeintliche Neutralität von Technologie verzerrt. In Großbritannien wurde eine Kinderärztin daran gehindert, die Umkleidekabine in ihrem Fitnessstudio zu betreten – denn die Software des Studios hatte sie durch ihren Doktortitel automatisch als Mann registriert. Auch ein junger Vater traute seinen Augen nicht, als er sein Kleinkind mit einer digitalen Personenwaage wog, und die dazugehörige App ihm nicht nur das Gewicht des Wonneproppens, sondern auch gleich tröstende Worte und gutgemeinte Ratschläge zum Abnehmen anzeigte.

Lest das Interview auf Motherboard.