Als ich dem Reddit-Nutzer namens Deepfakes zum ersten Mal begegnete, ging er noch weitgehend unbemerkt in einem Pornoforum für Promi-Doppelgänger seinem Hobby nach: Er erstellte Pornovideos mit berühmten Frauen, die in Wirklichkeit nie in einem Porno mitgespielt hatten. Schon bald würde man solche Videos nach ihrem Erfinder “Deepfakes” nennen.
Der Name spielt auf Deep Learning an, also Informationsverarbeitung mit neuronalen Netzen. Deepfake-Videos entstehen mithilfe eine Software, die sich künstliche Intelligenz zunutze macht. Die KI wurde in diesem Fall darauf trainiert, das Gesicht einer Person durch ein anderes zu ersetzen.
Videos by VICE
Der Nutzer namens Deepfakes bermerkte, dass er einen bereits bestehenden Algorithmus nutzen konnte, um die sonst statischen Porno-Fakes mit Prominenten zum Leben zu erwecken. Dazu musste er den Algorithmus nur mit Hunderten Bildern derselben Person füttern. Das Ergebnis sah erschreckend überzeugend aus.
Seine ersten Werke postete “Deepfakes” Ende 2017 in Reddit-Foren. Mitte Januar 2018 gab es bereits eigens eingerichetete Subreddits für Deepfakes. Einige der Leute dort hatten ein Programm namens FakeApp erstellt, mit dem auch ungeübte Nutzer die Software zum Austausch der Gesichter verwenden konnten. Zahllose Fake-Porno-Fans versuchten sich mal mehr, mal weniger erfolgreich mit eigenen Werken.
Schlechte Deepfake-Pornos sind wie psychedelische Horrorfilme
Als vermehrt Nachrichtenmedien über den Trend berichteten, formulieren viele Journalistinnen und Journalisten eine Sorge: Was wird geschehen, wenn sich Videos nun leichter als je zuvor fälschen lassen? Könnten gefälschte, irreführende Videos mit Politikern etwa Krisen herbeiführen? Aus den Deepfakes ist längst ein politisches Thema geworden, begonnen hatte alles aber mit Pornos – und dem grenzverletzenden Verhalten von Männern, die mithilfe von Software fremde Frauengesichter in Sexvideos platzierten und damit die Betroffenen zu Sexobjekten herabwürdigten.
Fortan verband man mit Deepfakes die Sorge, jede und jeder könnte nun gegen den eigenen Willen zum Teil eines Pornos gemacht werden. Dafür braucht es nicht mehr als eine gute Grafikkarte, einen Algorithmus und einen ausreichend großen Datensatz. Zuvor waren für Filme dieser Art komplexe Video-Bearbeitungsprogramme nötig. Das hatte sich durch gemeinfreie KI-Forschung und eine hilfsbereite Coder-Community geändert.
Wurde die Software erst einmal mit genügend Daten gefüttert, sieht das Ergebnis verblüffend realistisch aus, vor allem bei geringer Video-Auflösung. Bei weniger Training der KI sieht das Endprodukt erschreckend aus: Verschwommene Videos mit verzerrten Köpfen und schmerzerfüllten Gesichtsausdrücken. Die Glitches erschaffen Masken wie aus einem psychedelischen Horrorfilm. Schlechte Deepfake-Pornos sind ein Albtraum aus zusammengemanschten Frauenkörperteilen, die brutal von körperlosen Schwänzen bearbeitet werden. Dahinter steht der sogenannte Uncanny-Valley-Effekt. Das heißt, künstlich erschaffene Figuren wirken dann besonders erschreckend, wenn sie knapp an der Realität vorbeischrammen.
Warum Deepfakes Internet-Stars und Porno-Darstellerinnen schaden
Der Nutzer namens Deepfakes glaubt offenbar nicht, dass Deepfake-Videos in erster Linie schädlich sind. Jede Technologie könne für Böses eingesetzt werden, schrieb er Motherboard in einem Chat-Gespräch auf Reddit. “Ich sehe nichts Schlimmes daran, wenn mehr Menschen sich mit maschinellem Lernen befassen.”
Die betroffenen Frauen sehen das wohl anders. Wir haben einer Pornodarstellerin eines der frühen Deepfake-Videos gezeigt. Ihrer Einschätzung nach verletzen diese Videos Urheberrechte und machen es Menschen in der Branche schwerer, ihren Lebensunterhalt zu verdienen. Eine Frau, die auf YouTube recht bekannt ist, aber hier nicht namentlich genannt werden möchte, erzählte uns mit Tränen in den Augen, wie sie erfahren hatte, dass ihr Gesicht für ein Deepfake verwendet wurde. Ihre Zuschauer, darunter Kinder und junge Teenager, hatten zufällig pornographische Videos von ihr gesehen und sich gefragt, ob das wirklich sie sei.
Video: Der qualvolle Kampf gegen Rachepornos
Das Internet hat die Verbreitung von Pornografie zwar grundlegend verändert, eines ist aber gleich geblieben: Die Branche produziert hauptsächlich für Männer. Im Netz gibt es männlich dominierte Räume, in denen Frauen Übergriffe fürchten müssen. Reddit ist ein solcher Raum, dort gab es lange Zeit Communities für Porno-Doppelgänger von Promis oder für “Creepshots”: heimlich geschossene Fotos von nichts ahnenden Frauen.
Wie Frauen durch Deepfakes zu Sexobjekten gemacht werden
Reddit greift seit dem Aufkommen von Deepfakes mit neuen Regeln gegen Doppelgänger-Pornos durch; auch Pornhub hat gegen Deepfakes Stellung bezogen; aber die Videos verbreiten sich auf anderen Plattformen. Zum Beispiel Discord, eine Chat-Plattform für Gamer, die sich zwar schon gegen Deepfakes ausgesprochen hat, aber offenbar nicht effektiv genug dagegen vorgeht: Motherboard hat auf Discord in privaten Kanälen Unmengen Fotos von Frauen gefunden, die dort offenkundig ohne ihr Einvernehmen gepostet wurden. Auf berüchtigten Seiten wie 4chan und 8chan teilen Männer pornografische Bilder von Frauen und sogenannte Rachepornos wie Panini-Sticker.
In diesen digitalen Räumen würdigen Männer täglich Frauen zu Sexobjekten herab, missachten Persönlichkeitsrechte und Rechte am eigenen Bild, behandeln Frauenkörper und Aufnahmen davon als Besitz. Dahinter steht ein Frauenbild, wonach Frauen nicht mit Respekt behandelt werden müssen und vorrangig zur Befriedigung der sexuellen Bedürfnisse und der Machtbedürfnisse von Männern dienen.
Diese Weltanschauung spielt in die Hände von Pick-up-Artists und sogenannten Incels – offene Frauenfeinde, die beispielsweise die Meinung vertreten, dass ihnen Frauen Sex schulden. Auch Deepfakes fügen sich organisch in diese Weltanschauung ein: Ganze Communities von Männern sehen offenbar nichts Verkehrtes daran, Frauen zu objektifizieren.
Wenn sich die Debatte um Deepfakes in den nächsten Monaten und Jahren weiterentwickelt, sollten wir also nicht vergessen, wie diese Technologie ihren Anfang fand: in einer Community, die Frauen verachtet.
Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter