Tech

An diesen Brillen verzweifelt die modernste Gesichtserkennung

Von Facebook über Kaffeeautomaten bis hin zu Pornhub kommt Gesichtserkennung zum Einsatz, um Menschen zu identifizieren, manchmal ohne deren Wissen oder Einverständnis. Die Tendenz ist steigend. Sogar auf unseren heißgeliebten Smartphones können wir unser Gesicht inzwischen als Passwort verwenden.

Doch während die Algorithmen zur Gesichtserkennung immer besser werden, arbeiten Sicherheitsforscher genauso fieberhaft daran, die Systeme auszutricksen. In einer neuen Studie beschreiben Forscher der Carnegie Mellon University und der University of North Carolina eine zuverlässige und skalierbare Methode, mit der sie Gesichtserkennungssoftware hinters Licht führen können. Dazu brauchen sie lediglich eine kunterbunte Brille aus dem 3D-Drucker.

Videos by VICE

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Denn indem man nur wenige Pixel eines Bildes manipuliert, kann man selbst ein bewährtes neuronales Netz komplett verwirren. Die manipulierten Bilder oder Gegenstände werden als “Adversarial Examples” bezeichnet. Adversarial Examples kann man sich in etwa so vorstellen wie eine optische Illusion für Künstliche Intelligenzen. Oft benutzen Forscher dafür Sticker, die sie auf Objekte kleben. Wir Menschen sehen dann beispielsweise einen Hydranten mit einem kleinen bunten Pixelsticker, eine KI sieht dann aber statt des beklebten Hydranten plötzlich einen Fußgänger – oder eine Testperson wird, wie in diesem Versuch, durch ein präpariertes Brillengestell für die KI unidentifizierbar.

Versuch von 2016 Labeled Faces in the Wild Google FaceNet

Weil ihr Täuschungsmanöver so erfolgreich war, wandten sich die Forscher gleich mit einem konkreten Rat an die US-amerikanische Transportsicherheitsbehörde TSA: Da an öffentlichen Orten wie Flughäfen bereits Gesichtserkennungssoftware eingesetzt wird, sollten Menschen vor den Gesichts-Scans aufgefordert werden, Gegenstände wie Hüte, Schmuck und Brillen zu entfernen.


Ebenfalls auf Motherboard: Pilze: Das Plastik der Zukunft


Das neue Konzept ähnelt einem Versuch der UC Berkeley, in dem es ebenfalls gelang, eine Gesichtserkennungssoftware durch eine präparierte Brille auszutricksen. Doch um diesen Erfolg zu erzielen, mussten die Berkeley-Forscher zuerst den KI-Algorithmus manipulieren. In der neuen Studie bleibt der Algorithmus jedoch komplett unberührt. Die Brillen der Forscher ähneln damit eher den “Adversarial Examples” aus dem 3D-Drucker, die im vergangenen Jahr von MIT-Wissenschaftlern entwickelt wurden. Mit ihrer Hilfe wurde eine unschuldige Schildkröte für eine KI zu einer gefährlichen Schusswaffe – für diesen Trick hatten die Forscher lediglich ein paar Pixel in einem Schildkrötenbild verändert.

Für Privatpersonen ist es jedoch fast unmöglich, sich eine eigene Version der Brillen zu basteln und die Gesichtserkennung auszutricksen: Denn das Forscherteam arbeitete mit der White-Box-Methode. Sie kannten den Algorithmus, den sie hinters Licht führen wollten, bereits sehr gut. Ob auch andere Software auf die Brillen hereinfällt oder sogar Schildkröten sieht, ist nicht bekannt.