Wurde dieses Bild von Mensch oder Maschine gemalt?
Foto: Imgur

FYI.

This story is over 5 years old.

Tech

Wurde dieses Bild von Mensch oder Maschine gemalt?

Das mysteriöse Imgur-Bild sieht den Werken von Googles neuem Projekt Inceptionism erstaunlich ähnlich.

Ein äußerst psychedelisch anmutendes Gemälde mit einer Ansammlung bizarrer Hybridwesen aus Hund, Schnecke, Eichhörnchen und Robbe sowie surrealen Gebäuden und Fahrzeugen entfacht seit einer Woche im Internet wilde Spekulationen.

Gepostet wurde das Werk, auf dem man neben einer Vielzahl von Augen in einer psychedelischen Landschaft links unten auch ein paar Menschen erkennen zu können glaubt, am 10.6. anonym auf Imgur—mit der kurzen wie mysteriösen Erklärung: „This image was generated by a computer on its own (from a friend working on AI)."

Anzeige

Die durch den Post ausgelösten Diskussionen auf Tumblr, Reddit, Twitter und in Facebook-Gruppen sind noch immer in vollem Gange.

Inmitten des lebhaften Austauschs stellte Google dann am Mittwoch sein neues A.I.-Projekt Inceptionism vor. Dieses zeigt Bilder, die Googles künstliches neuronales Netzwerk (KNN), das bei Gesichtserkennung und Bildersuchfunktion zum Einsatz kommt, gemalt hat. Sie sehen dem ominösen Imgur-Bild extrem ähnlich.

Wie die Entwickler auf Googles Blog erklären, sind sie gerade dabei, einem neuronalen Netzwerk beizubringen, Bilder, die es sieht, richtig einzuordnen bzw. zu klassifizieren. Sie zeigen ihm dafür Millionen an bildlichen Beispielen und korrigieren die Interpretation des KNN während dieses Prozess per fein säuberlicher Backpropagation.

Das künstliche neuronale Netzwerk hat so gelernt, bestimmte Formen von Dingen, Tieren oder Menschen auf Fotografien zu erkennen. Es kann aber auch—ähnlich wie wir Menschen—bestimmte Formen in Objekten erkennen, zum Beispiel ein Tier in einer Wolke. Die Herausforderung liegt also darin, die KNN eine erkannte Form so interpretieren zu lassen, wie wir Menschen es tun.

Es liegt nahe, dass das Imgur-Bild durch eine KNN kreiert wurde, die ein anderes Bild aus menschlicher Sicht falsch interpretiert hat—auch wenn einige Internetuser überzeugt sind, hier habe ein visueller Künstler die Leute einfach mal ein bisschen trollen wollen.

Anzeige

„Neuronale Netzwerke, die darauf trainiert wurden, unterschiedliche Arten von Bildern zu unterscheiden, wissen auch einiges darüber, wie Bilder generiert werden."

Wie Googles Entwickler in ihrem Blog erklären, besteht ein künstliches neuronales Netzwerk aus 10 bis 30 Schichten künstlicher Neuronen. Wenn das NKK bildlichen Input bekommt, wird dieser von Schicht zu Schicht weitergegeben, bis die Output-Schicht schließlich eine „Antwort" des Netzwerks produziert. Während die ersten Schichten noch einzelne Ecken und Kanten zu erkennen versuchen, setzen die mittleren Schichten diese zu einer zusammenhängenden Struktur oder Form zusammen. Die letzten Schichten müssen diese Strukturen dann abschließend interpretieren und entscheiden, ob es sich beispielsweise um einen Baum oder ein Gebäude handelt.

Um zu verstehen, was genau in den einzelnen Schichten passiert, kehrten die Entwickler den Bilderkennungsprozess einfach um, denn: „Überraschenderweise wissen neuronale Netzwerke, die darauf trainiert wurden, unterschiedliche Arten von Bildern zu unterscheiden, auch einiges darüber, wie Bilder generiert werden."

So ist das KNN beispielsweise in der Lage, aus einem Bild von einer Wolke, je nachdem was die Forscher es erkennen lassen wollen, folgende Bilder zu machen:

Indem die Forscher nun beobachten, wie das Netzwerk ein bestimmtes Objekt konstruiert, können sie ihm im Umkehrschluss wiederum beibringen, worauf es achten muss und welche Elemente unwichtig sind, wenn es ein nicht definiertes Bild interpretiert.

Anzeige

Beispiel: Auf die Anfrage, ein Bild von einer Hantel zu kreieren, lieferte das KNN ausschließlich Bilder, die zwar Hanteln, gleichzeitig aber auch immer einen Unterarm zeigten.

Die Forscher probierten anschließend, das KNN ein Bild erzeugen zu lassen, basierend auf dem, was auf einem Ausgangsbild zu erkennen glaubte: „Was auch immer du da siehst, zeig mir mehr davon."— mit teilweise recht passablen Ergebnissen:

In den meisten Fällen wurden die Ausgangsbilder von dem künstlichen neuronalen Netzwerk aber einfach überinterprtiert.

„Wenn eine Wolke wie ein kleiner Vogel aussieht, wird das Netzwerk sie noch mehr wie einen kleinen Vogel aussehen lassen. Jede Schicht wird den Vogel noch mehr hervorheben, so dass auf einmal aus dem Nichts ein detaillierter Vogel zu sehen ist."

Ihre Technik, diese Abstraktionsfähigkeit, mit der eine bestimmte Schicht des neuronalen Netzwerks Bilder versteht, zu erkennen, haben die Google-Entwickler nun Inceptionism getauft—und eine beeindruckende Galerie von psychedelischen Bildern veröffentlicht, die von KNNs kreiert wurden.

Was das besagte Imgur-Bild angeht, stellt sich nach der Veröffentlichung von Inceptionism also nur noch die Frage, was für eine Art KNN das Bild produziert hat und welches Inputbild sie dafür bekommen hat.