Dieser Video-Algorithmus verwandelt den bittersten Winter in Sommertage

Die Entwickler von Nvidia lassen durch einen Trick konkurrierende KIs für sich arbeiten. Sie machen die Nacht zum Tag und zaubern aus verschneiten Straßen Sommerlandschaften.

|
07 Dezember 2017, 11:23am

Bild: Ming-Yu Liu

Langsam aber sicher machen Künstliche Intelligenzen ihrem Namen alle Ehre, wenn es darum geht, Bilder zu faken, die täuschend echt aussehen. Während die maschinell erstellten Werke vor ein paar Jahren noch sehr psychedelisch daher kamen, sind einige Algorithmen inzwischen so gut, dass auch Foto-Experten nicht mehr sicher sagen können, welches Bild von einem Menschen aufgenommen wurde und welches von einem Computer stammt. Auf der NPIS-Konferenz, einer Konferenz über Maschinelles Lernen, haben Forscher von Nvidia nun einen Algorithmus zur Bildübersetzung vorgestellt, der die Wetterbedingungen und Tageszeiten in jedem beliebigen Video wie von Zauberhand verändern kann. Das Unternehmen Nvidia ist vor allem für seine Grafikprozessoren und seine KI-Technologien für selbstfahrende Autos bekannt.

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Die Bildübersetzung ist eine Methode des Maschinellen Lernens, bei der ein neuronales Netz bestimmte Eigenschaftes eines Bildes verändert. So kann der Algorithmus von Nvidia beispielsweise eine verschneite Straße in eine idyllische Sommerlandschaft verwandeln – wie es die Forscher in diesem Video demonstrieren:

Das Projekt ist mit dem Pix2Pix-Projekt vergleichbar, das uns im Sommer einen Haufen grausiger Fratzen bescherte. Auch hier kommen Variational Autoencoder (VAEs) und sogenannte Generative Adversarial Networks (GANs) zum Einsatz, um den Algorithmus zu trainieren. Im Grunde werden bei diesem Prozess zwei Komponenten des Neuronalen Netzes gegeneinander ausgespielt: Der eine Teil erschafft künstliche Bilder, um einen anderen Teil des neuronalen Netzes auszutricksen, der lernen soll, authentische von gefälschten Bildern zu unterscheiden. Durch diesen ständigen Wettstreit pushen sich die beiden immer weiter. Der eine Teil möchte immer besser darin werden, Bilder zu fälschen, und der andere darin, Fälschungen zu erkennen. Dieser Vorgang wird auch vom YouTube-Kanal "Two Minute Papers" ausführlich erklärt.

Die Forscher von Nvidia nutzten für ihr Experiment sechs dieser neuronalen Netze. Die Ergebnisse wirken bei oberflächlicher Betrachtung recht authentisch. Sie sehen aus, als ob sie mit einer schlechten Dashcam aufgenommen wurden, nicht wie eine künstliche Simulation.

Der leitende Forscher der Studie, Ming-Yu Liu, sagte gegenüber Motherboard, dass die Maschinen durch das Experiment lernen sollten, sich Szenen eigenständig "vorzustellen" und diese zu erschaffen: "Das ist eine große Herausforderung, denn die meisten KIs müssen eigentlich mit Bildern trainieren, die den Input- und Output-Bildern genau entsprechen."

Diese "Vorstellungskraft" hätte vor allem für die KI in selbstfahrenden Autos einen großen Nutzen, denn das System könnte so schneller mit verschiedenen Lichtverhältnissen und Witterungsbedingungen trainiert werden. Denn mit dem passenden Algorithmus kann man die Fahrt auf einer verschneiten Straße simulieren, ohne mit dem Fahrzeug tatsächlich immer wieder durch Schneegebiete kurven zu müssen.