FYI.

This story is over 5 years old.

Tech

Es ist soweit: Menschen montieren massenweise fremde Menschen in Pornos

Alle Tools, die dafür nötig sind, sind öffentlich verfügbar und auch für Amateure erschreckend einfach zu bedienen. Die Technologie könnte ernste Konsequenzen haben.
Screenshot: Das Gesicht der Schauspielerin Daisy Ridley wurde vom Redditor nuttynutter6969 mit der FakeApp auf den Körper einer Pornodarstellerin gesetzt

Es hat nicht mal zwei Monate gedauert: Nachdem ein einzelner Redditor mit seinen täuschend echten Porno-Fakes von Gal Gadot und anderen Schauspielerinnen für Aufsehen sorgte, ist auf Reddit daraus eine ganze Szene gewachsen. Das Subreddit r/deepfakes hat inzwischen fast 22.000 Mitglieder, von denen viele nun selbst Pornos manipulieren, in dem sie einen vorhandenen Film mit der Hilfe einer KI mit beliebigen Gesichtern versehen – und die Ergebnisse sehen erschreckend realistisch aus. Dafür brauchen sie nur genügend Bilder von ihrer ahnungslosen Zielperson und ein paar öffentlich verfügbare Tools. Ein Redditor hat sogar eine App gebastelt, mit der auch blutige Anfänger KI-gestützte Pornos erstellen können.

Anzeige

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Vor dieser Entwicklung und ihren Implikationen haben Experten bereits vor zwei Monaten gewarnt. Sie ist jedoch viel schneller eingetreten, als sich irgendjemand hätte träumen lassen.

Kurz nachdem Motherboard über die Porno-Kreationen des Redditors deepfakes berichtet hatte, gründete er ein Subreddit, das er praktischerweise nach sich selbst benannte. Innerhalb dieser schnell wachsenden Community ist der Begriff "Deepfake" inzwischen zu einem Synonym für KI-generierte Porno-Fälschungen geworden.

Der Algorithmus setzt sich viel schneller als erwartet durch

Es dauerte nicht lange, bis ein anderer Redditor mit dem Nutzernamen deepfakeapp die sogenannte FakeApp entwickelte – eine benutzerfreundliche Anwendung, mit der jeder Pornos manipulieren kann. Die App basiert auf dem Algorithmus von deepfakes, ist aber ohne die Mithilfe des Porno-Pioniers entstanden. Wir haben deepfakes kontaktiert und ihn um einen Kommentar zu dem wachsenden Interesse an seiner Erfindung gebeten, er hat sich jedoch nicht zurückgemeldet.

In einer Direktnachricht auf Reddit gab deepfakeapp gegenüber Motherboard an, dass er FakeApp erstellt habe, damit der Algorithmus auch für Menschen ohne Programmiererfahrungen und technische Vorkenntnisse zugänglich sei.

"Ich halte die aktuelle Version der App für einen guten Ausgangspunkt, aber ich hoffe, dass ich sie in den kommenden Tagen und Monaten noch weiter verbessern kann", sagte er. "Ich möchte erreichen, dass Nutzer einfach ein Video von ihrem Computer auswählen, ein neuronales Netzwerk runterladen, das mit einem bestimmten Bilderdatensatz aus einem öffentlichen Archiv gefüttert wird und das Gesicht im Video dann mit einem Knopfdruck austauschen können."

Anzeige

Anfang Januar, kurz nachdem wir erstmals über deepfakes berichtet hatten, sprachen wir mit Peter Eckersley, dem leitenden Computerwissenschaftler der Electronic Frontier Foundation, darüber, welche gesellschaftlichen Implikationen diese Technologie mit sich bringt. "Wir stehen ganz kurz davor, dass diese Technologie sehr leicht nutzbar und weit verbreitet wird", lautete seine Antwort. Er fügte hinzu, dass es zum aktuellen Zeitpunkt jedoch sehr kompliziert sei, Deepfakes zu erstellen. "Natürlich kann man schon heute gefälschte Videos mit neuronalen Netzen erstellen. Doch bei genauer Betrachtung ist es ziemlich leicht, sie als Fake zu enttarnen und einige Techniken die man dafür braucht, sind nur etwas für Fortgeschrittene. Aber das wird sich in den nächsten ein bis zwei Jahren ändern."

In Wirklichkeit dauerte es nur wenige Wochen. Wir haben online Dutzende Nutzer gefunden, die heute schon mit KI-gestützten Pornos experimentieren. Einige der Ergebnisse sehen erschreckend echt aus.

Der Redditor UnobtrusiveBot hat das Gesicht von Jessica Alba beispielsweise mithilfe der FakeApp auf den Körper von Pornodarstellerin Melanie Rios platziert. "Ging super schnell – ich lerne gerade, wie ich das Modell neu trainieren kann. Es hat etwa fünf Stunden gedauert – nicht schlecht für das Ergebnis", schrieb er in einem Kommentar.

Auch Redditor nuttynutter6969 nutzte die FakeApp um die Star-Wars-Darstellerin Daisy Ridley zum unfreiwilligen Pornostar werden zu lassen.

Anzeige

Ob Schauspielerinnen oder Hitler – der Fantasie sind keine Grenzen gesetzt

Doch die manipulierten Pornos werden nicht nur im entsprechenden Subreddit geteilt, einige von ihnen sind auch schon auf andere Websites übergeschwappt. So wurde ein Deepfake von Emma Watson unter der Dusche auf Celebjihad hochgeladen, einer Seite mit vielen fragwürdigen Celebrity-Pornos. Das Video wurde mit der Beschreibung "nie zuvor gesehenes Video aus meiner Privatsammlung, das Emma Watson scheinbar komplett nackt beim Duschen mit einer anderen Frau zeigt" versehen.

Andere Redditor haben sich die öffentlichen Instagram-Stories berühmter Personen vorgenommen, um ihre KI zu trainieren und die Gesichter auf nackte Snaps zu transferieren. "Ich hatte Glück, dass die Person in dem Video ähnliche lächerliche Tanzbewegungen und Gesichtsausdrücke macht wie Chloe in ihren Instagram-Stories", schrieb der Redditor, der ein Deepfake der Schauspielerin Chloe Bennet erstellt hat.

Die meisten Posts in r/deepfakes sind pornografischer Natur, aber einige Nutzer erstellen auch Videos, die Beweisen, dass der Technologie eigentlich keine Grenzen gesetzt sind, wenn man nur über die passenden Rohdaten verfügt. Der Redditor Z3ROCOOL22 kombinierte beispielsweise Aufnahmen von Hitler mit dem argentinischen Präsidenten Mauricio Macri:

Laut deepfakeapp kann jeder, der FakeApp herunterlädt und über ein bis zwei qualitativ hochwertige Videos seiner Zielperson verfügt, realistische Filmchen erstellen. Im Wiki des Subreddits heißt es, dass FakeApp eine "von der Community entwickelte Desktop-App" sei, mit der man "deepfakes' Algorithmus nutzen kann, ohne Python, Tensorflow oder ähnliches zu installieren". Man brauche lediglich einen guten Grafikprozessor mit CUDA-Support. Nutzer, die nicht über den richtigen Prozessor verfügen, können dafür auch Cloud-basierte Dienste wie Google Cloud Platform nutzen. Der gesamte Prozess von der Datenextraktion, über die Umwandlung bis hin zum vollständigen Gesichtertausch, dauert angeblich etwa acht bis zwölf Stunden, wenn er korrekt durchgeführt wird. Doch einige Nutzer berichten, dass sie viel länger gebraucht haben – teilweise mit desaströsen Resultaten.

Anzeige

"Zu Ehren aller, die auch kläglich gescheitert sind – hier ist mein vermasseltes Video", schreibt MrDrPresidenNotSure über seinen Faceswap aus der Hölle:

"Hier mein Ergebnis, hätte ich mehr Zeit ins Training steckensollen?", bittet yu78156853 andere FakeApp-Nutzer um Rat.

Carrie Fisher zum Leben erwecken – kein Problem: "Mein Budget: 0 Dollar und ein paar Fleetwood Mac-Alben"

Als besonders gelungenes Beispiel nennt deepfakeapp ein Video des Nutzers derpfake, der einen FaceSwap von Prinzessin Leia aus Rogue One erstellt hat. Bei niedriger Auflösung sieht die FakeApp-Version der Szene aus Hollywood zum Verwechseln ähnlich.

"Ich hoffe, dass Maschinlern-Tools wie dieses in den nächsten Jahren noch zugänglicher werden und ganz normalen Menschen ohne technische Vorkenntnisse die Möglichkeit erhalten, mit hochentwickelten Manipulationstechniken zu arbeiten, die heute nur SFX-Studios mit hohem Budget vorenthalten sind", sagte deepfakeapp.

"Oben sieht man das Original aus Rogue One mit einer seltsamen computeranimierten Carrie Fisher. Budget für den Film: 200 Millionen Dollar", beschreibt derpfake sein Video. "Unten ist die 20-minütige Manipulation, die man auch mit einer Schauspielerin hätte erstellen können, die Carrie Fisher ähnlich sieht. Mein Budget: 0 Dollar und ein paar Alben von Fleetwood Mac." Statt das Gesicht von Prinzessin Leia kostspielig am Computer zu animieren, hatte derpfake die Software mit echten Aufnahmen der jungen Carrie Fisher gefüttert und in die Filmszenen eingefügt.

Anzeige

Wir können jetzt schon kaum zwischen Wahrheit und Fiktion unterscheiden

Eine Technologie, mit der jeder so kinderleicht täuschend echte Videos faken kann, und die sich so rasend schnell entwickelt, könnte ernste Auswirkungen haben. Denn der Fantasie sind keine Grenzen gesetzt: Egal, ob es sich um Rachepornos, manipulierte Aufnahmen von Stars oder politischen Reden handelt, mit den nötigen Rohdaten und ein paar Open-Source Tools kann jede Aufnahme gefälscht werden.

"Aus sozialer und kultureller Sicht kann diese Technologie leicht ausgenutzt werden, aber wir werden es überleben", sagte Jay Owens gegenüber Motherboard. Owens arbeitet als Analytiker für Pulsar, eine Plattform die Zielgruppenforschung betreibt. "Virale Videos und Nachrichten über Promis funktionieren schon heute über puren Unterhaltungswert – die Videos werden einfach noch sexier, Meme-lastiger und unwirklicher werden."

Deborah Johnson, emeritierte Professorin für angewandte Ethik an der University of Virginia, zweifelt nicht daran, dass die Technik bald so gut sein wird, dass wir unmöglich den Unterschied zwischen einem echten Video und einem KI-generierten Fake erkennen können. Allerdings meint sie auch, dass wir auch jetzt schon schlecht darin sind, zwischen Wahrheit und Fälschung zu unterscheiden. "Neu daran ist, dass die technischen Mittel nun jedem zur Verfügung stehen. Dadurch wird das ganze Prinzip von Vertrauen und Glaubwürdigkeit untermauert."

Schon heute fällt es Menschen zunehmend schwer, zwischen der Wahrheit und Fake News zu unterscheiden und Nachrichten jeglicher Art verbreiten sich über Soziale Medien in Windeseile. Kombiniert man das mit mächtigen Algorithmen, die jeder für seine Zwecke nutzen kann, um Aufnahmen zu manipulieren, könnte das ernsthafte Konsequenzen für unseren Medienkonsum haben.