Diese KI kann wirklich jeden zum unfreiwilligen Pornostar machen – und das ist ein Problem

Mit einem Algorithmus verwandelt ein Redditor Schauspielerinnen kinderleicht in realistische Pornostars. Auch für Privatpersonen könnte die Technologie fatale Folgen haben.

|
13 Dezember 2017, 10:43am

Bild: Screenshot SendVids 

Im Netz kursiert gerade ein Clip, der die Wonder Woman-Schauspielerin Gal Gadot beim Sex mit ihrem Stiefbruder zeigt. Natürlich ist es nicht tatsächlich Gadots Körper, der hier zu sehen ist. Mit einem cleveren Algorithmus wurde Gadots Gesicht auf den Körper der eigentlichen Pornodarstellerin gesetzt. Das Erschreckende an diesem gefälschten Film: Der Deep-Learning-Algorithmus hätte praktisch von jedem erstellt werden können, denn er besteht aus frei zugänglichen Tools und Open-Source-Codes.


Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Auch wenn das Video auf den ersten Blick realistisch wirkt, hält es einer genaueren Betrachtung dann doch nicht stand: Manchmal passt das Gesicht nicht zu den Bewegungen des Körpers. Rund um Gadots Gesicht sieht man außerdem gelegentlich einen Bereich, in dem das Gesicht der echten Darstellerin durchschimmert. Trotzdem ist das Video bemerkenswert, denn angeblich wurde es von einer einzelnen Person geschaffen – von einem Redditor mit dem Nutzernamen 'deepfakes'. Nach eigenen Angaben hat er es mit öffentlich verfügbaren Tools wie TensorFlow zusammengebastelt. TensorFlow ist eine Datenbank für Lern-Algorithmen von Google, die Forschern, Studenten und allen anderen Interessierten zur Verfügung steht.

Ein Ausschnitt aus dem Video auf SendVids, das Gal Gadots Gesicht auf dem Körper eines Pornostars zeigt.

Der Fake-Porno ist ein weiterer Beweis, wie weit fortgeschritten die KI-Technologie ist. Mit einem Adobe-Tool, das auch als “Photoshop für Stimmen” bezeichnet wird, kann man Menschen bereits jeden beliebigen Satz in den Mund legen und mit dem Face2Face-Algorithmus Gesichter in Aufnahmen austauschen. Wir haben einen Punkt erreicht, an dem es verblüffend einfach ist, realistische Videos zu erstellen, in denen Menschen Dinge tun und sagen, die so nie geschehen sind. Und dazu gehört nun auch Sex.

"Keine hohe Kunst mehr" – wie der Algorithmus Gesichter austauscht

Natürlich gibt es schon seit Jahrzehnten gefakte Promi-Pornos – meistens handelt es sich um mehr oder weniger glaubhaft bearbeitete Fotos, in denen berühmte Personen vermeintlich nackt zu sehen sind. Deepfakes treibt dieses Genre durch seine Fake-Pornos nun auf die nächste Stufe – und zumindest im Subreddit, in dem er die Filme postet, kommen die Clips mit den Gesichtern von Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza und Gal Gadot gut an.

Laut deepfakes, der seinen tatsächlichen Namen nicht öffentlich machen möchte, basiert seine Software auf verschiedenen öffentlich zugänglichen Programmen wie Keras und TensorFlow. Die Gesichter der Promis, mit denen er den Algorithmus trainierte, fand er über die Google-Bildersuche, Bildagenturen und in YouTube-Videos.

"Jedem sollte bewusst sein, wie einfach es ist, Bilder und Videos zu fälschen. In ein paar Monaten werden wir vielleicht nicht mehr in der Lage sein, den Unterschied zu erkennen."

Gegenüber Motherboard gab deepfakes an, dass er kein professioneller KI-Forscher sei, sondern nur ein Programmierer, der sich für Maschinelles Lernen interessiere. "Ich habe nur einen cleveren Weg gefunden, um Gesichter auszutauschen", sagte er. "Mit ein paar Hundert Bildern von Gesichtern kann ich Millionen Vorlagen erstellen, um das Netzwerk zu trainieren. Wenn ich das Netzwerk danach mit einem neuen Gesicht füttere, denkt es, dass es eine weitere verzerrte Vorlage sieht und versucht, es genauso so wie das Trainings-Gesicht aussehen zu lassen."

Der KI-Forscher Alex Champanard sagte gegenüber Motherboard, dass diese Aufgabe mit einer handelsüblichen Grafikkarte nur wenige Stunden in Anspruch nehmen würde. Selbst mit einem ganz normalen Prozessor könnte man den Film innerhalb von ein paar Tagen erstellen. "Das ist heutzutage keine hohe Kunst mehr", meint Champanard.

Wie einfach und schnell ein solcher Fake-Porno entstehen kann, ist besorgniserregend. Neben den technischen Mitteln braucht man eigentlich nur genug Bilder eines Gesichts, um ein neuronales Netz zu trainieren. Wenn man bedenkt, dass Menschen allein zwischen 2015 und 2016 weltweit 24 Milliarden Selfies auf Google Fotos hochgeladen haben, sollte es an Trainingsdaten nicht mangeln. Mit dem passenden Algorithmus könnte also theoretisch jeder Hobby-Programmierer Sexvideos einer x-beliebigen Person erstellen – sei es, um sie zu schikanieren oder zu erpressen.

Der Lernalgorithmus könnte für bösartige Zwecke missbraucht werden

Die Pornodarstellerin Grace Evangeline schreibt Motherboard in einer Twitter-Nachricht, dass Pornostars die Piraterie ihrer Arbeit bereits gewohnt seien. Filme und Bilder würden häufig kostenlos und ohne ihr Einverständnis auf Seiten wie SendVid, auf der auch der falsche Gadot-Porno auftauchte, hochgeladen, so Evangeline. Dieser Fall überträfe jedoch alles, was sie bisher gesehen hätte.

"Die wichtigste Voraussetzung ist immer das Einverständnis", sagt Evangeline. "Das gilt für das Privatleben genauso wie für die Arbeit vor der Kamera. Wenn man Sexszenen mit Prominenten fakt, geschieht das ohne ihre Zustimmung. Das ist nicht richtig."


Ebenfalls auf Motherboard: Balloon Porn Superstar


Auch Alia Janine, die 15 Jahre lang als Pornodarstellerin tätig war, findet diese Grenzüberschreitung der Privatsphäre besorgniserregend: "Das ist sehr verstörend. Es zeigt, dass einige Männer Frauen im Grunde als Objekt sehen, das manipuliert und zu allem gezwungen werden kann. Es beweist, dass den Pornodarstellern überhaupt kein Respekt entgegengebracht wird."

Wir haben deepfakes gefragt, ob er auch an die ethischen Konsequenzen dieser Technologie gedacht hat. Hatte er die Themen Selbstbestimmung, Rachepornos und Erpressung im Hinterkopf, als er seinen Algorithmus entwickelte?

"Jede Technik kann für böse Absichten verwendet werden. Das lässt sich unmöglich verhindern", antwortete er und zog einen Vergleich mit der Technologie, die Paul Walker nach seinem Tod im Film Fast & Furious 7 für ein paar Szenen wieder zum Leben erweckte. "Der einzige Unterschied ist, dass meine Technik leicht von jedem verwendet werden kann. Ich halte es für eine gute Sache, wenn sich mehr Laien mit Maschinellem Lernen auseinandersetzen."

Champanard hingegen hält die ethischen Implikationen für "enorm". "Das Thema muss öffentlich diskutiert werden", sagt er. "Jedem sollte bewusst sein, wie einfach es ist, Bilder und Videos zu fälschen. In ein paar Monaten werden wir vielleicht nicht mehr in der Lage sein, den Unterschied zu erkennen. Zwar gibt es diese Möglichkeiten schon seit einer Weile, aber sie waren bisher wenigen Video-Experten – nämlich denen mit den nötigen finanziellen Mitteln – vorbehalten. Nun kann jeder x-beliebe Programmierer mit aktueller Hardware einen solchen Film erstellen."

Champanard hat noch ein paar Ideen, die man der Technologie entgegenhalten könnte: Forscher müssten Programme entwickeln, mit denen gefakte Videos entlarvt werden könnten, gleichzeitig müssten netzpolitische Strategien erarbeitet werden, um mit Fälschungen, Rachepornos und Belästigungen umzugehen. Verhindern lässt sich die schadhafte Verwendung dieser Softwaretechnologie wohl nicht – doch mit dem richtigen gesellschaftlichen Fokus zu gegebener Zeit, kann man ihr trotzdem etwas entgegensetzen.