Quantcast
Das sieht eine Künstliche Intelligenz, wenn sie Science-Fiction-Filme guckt

Ein Student hat ein neuronales Netz auf Sci-Fi-Filme angesetzt und damit den Copyright-Schutz von YouTube und Vimeo auf eine harte Probe gestellt.

„Ich habe Dinge gesehen, die ihr Menschen niemals glauben würdet." Diese Zeilen, gesprochen von dem Androiden Roy Batty am Ende von Ridley Scotts Blade Runner stehen für das Versprechen, das der fernen Zukunft innewohnt—und für die traurige Wahrheit, dass wir vieles von dem, was vor uns liegt, niemals mit eigenen Augen sehen werden. Das ist aber halb so schlimm. Schließlich leben wir bereits heute in einer Welt, die viele Ähnlichkeiten mit Scotts Film und der Romanvorlage von Philip K. Dick aufweist: Künstliche Intelligenz wird immer intelligenter, Roboter werden immer menschenähnlicher, und Computer beginnen dank neuronaler Netze zu träumen.

So sorgte im vergangenen Sommer etwa das Projekt Deep Dream von Google weltweit für Aufsehen. Künstliche neuronale Netze, die man darauf trainiert hatte, Objekte wie Schoßhunde, Vögel und Bananen in ihnen vorgesetzten Bildern zu erkennen, verwandelten diese in surrealistische Traumlandschaften. Das war nicht nur für Informatiker und Neurowissenschaftler aufschlussreich, die sich mit dem optischen Wahrnehmungsapparat von Menschen und Maschinen beschäftigen, sondern brachte auch eine eigene Kunstform hervor.

„Ich wollte meine Zeit nicht damit verschwenden, der KI langweilige Bilder vorzusetzen."

Warum sich aber auf einzelne Bilder beschränken, wenn man einer KI einen kompletten Film vorsetzen kann? Das zumindest dachte sich Terence Broad, Medienkünstler und Student am Goldsmith College in London. „Die Bilder, mit denen Forscher die Fähigkeiten ihrer neuronalen Netze testen, sind meistens sehr langweilig. Damit wollte ich meine Zeit nicht verschwenden", erklärt Broad gegenüber Motherboard. Daher entschloss er sich, einem neuronalen Netz beizubringen, Blade Runner zu erkennen. Denn das war nicht nur thematisch naheliegend. „Auch visuell verfügt der Film über viele passende Motive", sagt Broad. „So gibt es darin beispielsweise sehr viele Aufnahmen von Augen."

Links: Der originale Blade Runner Film. Rechts: Der Film durch die Augen des neuronalen Netzes, das Terence Broad entwickelte.

Ähnlich wie die Google-Mitarbeiter bei Deep Dream verwendete auch Broad für seine studentische Abschlussarbeit ein künstliches neuronales Netz, das aus hunderttausenden Neuronen besteht, die in mehreren Schichten angeordnet sind und durch Millionen von Verbindungen miteinander verknüpft sind. „Es handelt sich dabei um die Computersimulationen jener Prozesse, die sich in unseren Gehirnen abspielen, wenn wir in die Welt blicken und die eingefangenen Signale verarbeiten", sagt Broad. „Die Bilder, die diese Netze hervorbringen, bestehen zunächst nur aus Rauschen. Aber man kann sie lernen lassen."

Broads Versuchsaufbau bestand aus zwei solcher künstlicher neuronaler Netze. Das erste bekam Einzelbilder aus Blade Runner gezeigt und reduzierte diese jeweils auf eine 200-stellige numerische Folge. Das zweite Netzwerk versuchte dann aus diesen Zahlenreihen wieder die ursprünglichen Bilder zu rekonstruieren und zu einem Film zusammenzusetzen. Nach jedem Durchgang wurde das Ergebnis ein wenig besser, da Broad dem Netzwerk beibrachte, welche Resultate dem Original näher kamen als andere. „Ich war überrascht, wie gut das funktioniert", sagt Broad.

Nahaufnahmen von Gesichtern und ruhigere Szenen mit klaren Konturen erkennt das Programm erstaunlich gut. Sie erwecken den Eindruck, als hätte man eine sehr stark komprimierte Version von Blade Runner vor sich, die man sich um die Jahrtausendwende heruntergeladen hat. Abschnitte des Films, in denen viel passiert, geraten hingegen zu einem diffusen Gewusel. Aber auch das ist hübsch anzusehen und verfügt immer noch über visuelle Merkmale des Originals. „Das neuronale Netz konzentriert sich auf stilistische Charakteristika, die für Blade Runner typisch sind und hebt sie hervor", sagt Broad. Dunkle, blau und violett schimmernde Bilderfolgen sind das Ergebnis.

Wie sich die KI um die Copyright-Sperre mogelt

Als Broad jedoch die mit den Augen seiner neuronalen Netze gesehene Version von Blade Runner online stellen wollte, stieß er bereits bei seinem ersten Versuch auf Probleme. „YouTube hat mir gar nicht erst erlaubt, den Film hochzuladen", sagt er. „Auf Vimeo hat es dann zwar geklappt, aber auch von da verschwand der Film nach einer Woche aufgrund einer Beschwerde von Warner Bros." Aber nicht für lange.

Irgendjemandem bei Warner Bros. muss die KI-Version von Blade Runner gefallen haben

Nach wenigen Tagen wurde der Film bereits wieder freigegeben und ist bis heute auf Vimeo zu sehen. Eine Begründung für diesen Sinneswandel gab es nicht, aber Broad nimmt an, dass jemandem bei Warner Bros. seine Interpretation von Blade Runner gefallen haben muss. Auch verfügt seine Version über keinen Ton, kommt an vielen Stellen äußerst abstrakt daher und ist deshalb nicht wirklich eine Konkurrenz zur HD-Fassung auf Blu-ray.

Was aber geschieht, wenn Computer künftig dazu in der Lage sein werden, Filme immer besser zu erkennen und wiederzugeben? Broad selbst arbeitet bereits daran, ihnen neben dem Sehen auch das Hören beizubringen. Es könnte also sein, dass das Endergebnis schon bald kaum noch vom Original zu unterscheiden ist. Wird man dann Filme einfach durch ein neuronales Netz schicken und danach unbehelligt ins Netz stellen können? Zeichnet sich hier eine neue Gesetzeslücke für Filmpiraten ab? Broad bezweifelt das: „Solche Filme werden sofort als Copyrightverstöße eingestuft und entfernt werden", sagt er. „Der Schutz geistigen Eigentums ist ja auch eine wichtige Sache. Andererseits sollte es aber auch möglich sein, bestehende Werke als Material für die eigenen Arbeiten zu verwenden."

Denn das Potential ist vielversprechend. Das zeigen bereits erste Experimente, für die Broad andere Filme und Werbeclips von seinem mit Blade Runner trainierten neuronalen Netz betrachten ließ. Die verwandeln sich dann in seltsame Mischformen. Auch ein Netz, das er mit dem animierten Film A Scanner Darkly trainiert hatte, erzeugt interessante Ergebnisse, wenn man ihm andere Videos präsentiert.

Studenten der Universität Freiburg haben es sogar bereits geschafft, den Stil bekannter Gemälde mit Hilfe neuronaler Netze auf beliebige Videos zu übertragen. Es könnte also durchaus sein, dass wir in naher Zukunft eine Fassung von Blade Runner ansehen können, die im Stil von Walt Disney oder Vincent van Gogh erscheint—oder einen Video-Chat, der in Echtzeit so umgewandelt wird, als hätte Meisterregisseur Ridley Scott ihn höchst persönlich in Szene gesetzt.