Quantcast
Google-Forscher erschaffen KI, die selbstständig KI programmieren kann

In einem Experiment ist es künstlicher Intelligenz gelungen, selbstlernende Software zu bauen, die besser ist als alles vergleichbare zuvor. Sind menschliche Programmierer dann überhaupt noch notwendig?

Es ist die ewige Vision von Futuristen wie Ray Kurzweil und der Albtraum vieler Technologiepessimisten: Lernende Maschinen schaffen es irgendwann, sich selbst und andere Maschinen zu programmieren. Durch einen unendlichen Lernzyklus entsteht eine nie dagewesene Intelligenzexplosion und der Mensch wird abgehängt. Der Computer, den Pioniere vor Jahrzehnten in Unilaboren und Garagen als Hilfsmittel entwickelt haben, verselbstständigt sich und kommt ganz ohne menschliche Programmierer aus—soweit die Utopie von der technologischen Singularität.

Forscher der Google Brain Abteilung für künstliche Intelligenz (KI) sind dieser Vision nun einen entscheidenden Schritt näher gekommen. In einem Experiment entwickelte ein KI-Programm anhand von maschinellem Lernen eine Software, die bessere Ergebnisse erzielte als vergleichbare Arbeit von menschlichen Codern. Es geht also um Code, der von Code verfasst wurde. Dabei ging es nicht um ein einfaches Pong-Game, sondern um Software, die die Qualität unterschiedlicher Sprachmodellierungen auswertet und vergleicht—das berichten die Google-Forscher in einer nun veröffentlichten Studie, deren Peer Review allerdings noch aussteht.

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Es ist nicht das erste Mal, dass maschinelles Lernen den Menschen aussticht. Vergangenes Jahr hat eine Google-KI eigenständig eine Verschlüsselung erstellt, die Google selbst nicht dechiffrieren konnte.

Werden Coder, das Rückgrat unseres technologischen Fortschritts, also bald überflüssig? Irgendwann vielleicht, aber bald ganz sicher nicht. Da wäre zunächst das Problem der Rechenpower: Für das Experiment benötigte Google der MIT Technology Review zufolge 800 hochleistungsfähige Grafikprozessoren, welche wiederum ein sehr hohes Projektbudget voraussetzen. Außerdem bedarf es eines dedizierten Expertenteams, um die Google-KI anzuleiten—das ist so leicht nicht auf diesem Planeten zu finden.

Der Debatte um die Zukunft der Arbeit gibt das Google-Experiment jedenfalls einen interessanten Denkanstoß: Die Digitalisierung gefährdet anscheinend nicht nur weniger qualifizierte Jobs, auch die Digitalisierungstreiber selbst laufen langfristig Gefahr, sich weg zu rationalisieren. Otkrist Gupta, KI-Forscher am MIT Media Lab, glaubt dann auch, dass die automatisierte Lernsoftware in Zukunft vielen Programmierern Arbeitslast abnehmen kann, wie er der MIT Technology Review sagte.

Ist die teure, selbstlernende Software also nur etwas für zukunftsgerichtete Labors? Noch ist nicht klar, wann es das automatisierte, maschinelle Lernen zur Marktreife bringt. Wenn es allerdings soweit ist, könnte die Technologie dabei helfen, das maschinelle Lernen für die Wirtschaft erschwinglich zu machen. Bisher können sich nämlich nur wenige Unternehmen die Arbeit mit Künstlicher Intelligenz leisten; allein schon, weil die Lohnkosten von KI-Programmierern sehr hoch sind. Eine Software allerdings, die selbst künstliche Intelligenz programmieren kann, wird voraussichtlich günstiger sein als ein Expertenteam.

Google-KI entwickelt Verschlüsselung, die selbst Google nicht versteht

Die Hürde von der immensen Rechenpower könnte der MIT Technology Review zufolge schon bald behoben werden: In einem anderen Experiment haben die Forscher bei Googles Deep Mind demnach gezeigt, wie die Qualität des maschinellen Lernens verbessert werden kann. Die unvorstellbare Datenmengen, die Lernalgorithmen bislang auswerten müssen, sollen in Zukunft minimiert werden können—und damit auch die Kosten.

Fortschritte auf diesem Gebiet hat aber nicht nur Google vorzuweisen. Die von Elon Musk ins Leben gerufene Non-Profit Organisation OpenAI, sowie Institute des MIT und der University of California haben in den vergangenen Monaten neue Forschungsergebnisse erzielt.

Ermöglicht wird der nie endende Lernzyklus der künstlichen Intelligenz übrigens durch das bestärkende Lernen. Die Kernidee hinter diesem aus der Psychologie entlehnten Konzept: Algorithmen werden nicht auf die Lösung genau definierter Aufgaben hin optimiert, sondern nach Belohnungen. Wird der Algorithmus positiv belohnt, macht er mehr davon, ist die Belohnung negativ, lässt er es sein—ganz wie ein Mensch.