Tech

Diese Software erkennt Gesichter, obwohl sie unkenntlich gemacht wurden

Forscher vom Max-Planck-Institut haben ein neurales Netzwerk darauf trainiert, unkenntlich gemachte Gesichter zu identifizieren—und das tut es mit erschreckend hoher Genauigkeit.
Janus Rose
New York, US
12.8.16
Bild: Seong Joon Oh et al

Software zur automatischen Gesichtserkennung ist mittlerweile in zahlreichen Bereichen unseres Lebens angekommen; in der Strafverfolgung, bei Werbeagenturen und selbst in Kirchen. Dabei bietet sie nicht nur Vorteile, sondern ist auch eine der gefährlichsten Techniken für unsere Privatsphäre.

Die Technologie, jeden Menschen sofort nur am Gesicht zu erkennen, könnte die gesellschaftlichen Machtverhältnisse enorm verschieben und wichtige Grundrechte wie die freie Meinungsäußerung und das Demonstrationsrecht gefährden. Jetzt konnten Wissenschaftler vom Max-Planck-Institut zeigen, dass Algorithmen sich so trainieren lassen, Menschen trotz verschwommener oder anderweitig undeutlich gemachter Gesichter identifizieren zu können. Den Forschern gelang es, die Unkenntlichmachung zu umgehen, in dem ihre Computer zuvor beobachtete Muster von Kopf und Körper nutzten und mit dem aktuellen Bild abglichen.

Anzeige

In einem Paper, das auf den ArXiv Preprint-Server hochgeladen wurde, stellen die Forscher des Saarbrückener Max-Planck-Instituts ihre Methode ausführlicher vor. Das System der Forscher, das sie „Faceless Recognition System" getauft haben, trainiert ein neuronales Netzwerk mit Bildmaterial, auf dem sowohl sichtbare als auch unkenntlich gemachte Gesichter zu sehen sind. Dann macht sich das Netz das so erlangte Wissen zunutze, um die Identität von verschwommenen Gesichtern auszumachen, indem es die Bilder nach Ähnlichkeiten in den Bereichen des Kopfes und des Körpers der betreffenden Person durchforstet.

Die Genauigkeit des Systems schwankt je nachdem, wie viele erkennbare Bilder im Bildsatz vorhanden sind. Selbst, wenn das Gesicht in nur 1,25 Fällen vollständig zu erkennen ist, kann das System ein unkenntlich gemachtes Gesicht mit 69,6-prozentiger Genauigkeit identifizieren; ist das Gesicht in ganzen 10 Fällen komplett erkennbar, steigt die Genauigkeit der Gesichtserkennung auf überwältigende 91,5 Prozent.

Kurz gesagt: Selbst wenn ihr euer Gesicht auf fast allen eurer Instagram-Fotos unkenntlich macht, hat das System eine gute Chance, euer Gesicht zu erkennen, so lange es ein oder zwei Bilder gibt, auf denen es in voller Pracht zu sehen ist.

Die Effizienz des Systems sinkt allerdings deutlich, wenn es mit Bildmaterial von ein und derselben Person in verschiedenen Situationen zu tun hat, oder wenn es mit abweichender Belichtung oder Kleidung konfrontiert wird. Die Wissenschaftler fanden heraus, dass die Leistungsfähigkeit des Systems bei der Identifizierung von Gesichtern, die auf unterschiedlichen Bildern mit schwarzen Balken unkenntlich gemacht wurden, von 47,4 Prozent auf nur 14,7 Prozent sinkt—doch selbst das ist noch drei Mal genauer, als die „naive" Methode der Identifizierung unkenntlich gemachter Gesichter durch blinde Vorhersage, so die Anmerkung der Forscher.

In der Vergangenheit hat Facebook bereits gezeigt, dass seine Gesichtserkennungs-Algorithmen die Identität eines Nutzers mit unkenntlich gemachtem Gesicht dennoch mit 83-prozentiger Genauigkeit bestimmen können, indem sie sich Hinweise wie die Körperhaltung oder den Körperbau zunutze machen. Die Wissenschaftler sagen aber, dass ihr System das erste ist, dass diese Schritte mit einem lernfähigen System durchführen kann, das eine ganze Bandbreite an unveränderlichen Körperstrukturen aus Bildern mit verschwommenen und verdunkelten Gesichtern nutzt.

„In Hinblick auf die Privatsphäre sollten die hier dargelegten Ergebnisse so einige Bedenken aufkommen lassen", schreiben die Forscher. „Es ist sehr wahrscheinlich, dass unbekannte Systeme, ähnlich dem hier beschriebenen, bereits online eingesetzt werden. Wir sind der Meinung, dass es in der Verantwortung derjenigen, die Software für automatische Bildanalysen entwickeln, liegt, näher zu bestimmen, wie online geteilte Bilder der Nutzer sich auf deren Privatsphäre auswirken und die Ergebnisse darüber der Öffentlichkeit zugänglich zu machen."