Superslimme computers zullen ons niet uitroeien, maar negeren

FYI.

This story is over 5 years old.

Tech

Superslimme computers zullen ons niet uitroeien, maar negeren

Is het niet veel logischer dat AI robots ons net zo behandelen als wij met insecten omgaan?

Over een aantal jaar zullen we op het punt zijn dat de kunstmatige intelligentie slimmer is zijn dan de mensheid. Veel behoorlijk slimme mensen, waaronder Stephen Hawking en Elon Musk waarschuwen ons al een tijdje over de mogelijke gevaren van AI. Maar misschien is er een andere mogelijkheid, namelijk dat superslimme AI ons simpelweg zal negeren.

Op het eerste gezicht klinkt dit vrij logisch. Hetzelfde geldt immers nu voor insecten. Tenzij je een soort psychopaat bent, houd je je over het algemeen niet bezig met het bewust uitroeien van torren of mieren. Je laat ze gewoon hun ding doen. Als AI veel slimmer dan wij wordt, zal er een grote kans bestaan dat zij hetzelfde over ons denken. Waarom zouden ze zich bekommeren om de mens, die op dat moment toch veel minder is dan de door AI gestuurde computers?

Advertentie

Dit interessante idee komt uit een blogpost van Zeljko Svedic, een Kroatische ontwikkelaar die een bedrijf gestart heeft voor het automatisch testen van programmeerskills. Svedic benadrukt dat hij geen AI-geleerde, maar meer een soort amateurfilosoof is. Ik raakte gefascineerd door zijn blogpost 'Singularity and the anthropocentric bias.'

Svedic stelt dat de meeste conflicten tussen soorten voortkomen uit een gebrek aan grondstoffen, of wat hij irrationeel gedrag voor de verlengde overleving van een soort noemt. De aarde verwoesten door hem te vervuilen is inderdaad niet het slimste wat we op het moment aan het doen zijn, maar we doen het toch. Een superintelligent ras van robots heeft waarschijnlijk behoefte aan hele andere grondstoffen dan de mens, en zal bovendien veel rationeler en kouder handelen om aan die grondstoffen te komen.

Natuurlijk zou er altijd een soort hyperintelligent en boosaardig AI-ras (een beetje zoals Skynet uit Terminator) kunnen ontstaan dat de Aarde voor zichzelf wil en direct een oorlog tegen de mensen gaat voeren. Maar zou het niet logischer zijn voor hypothetische AI-robots zijn om zo snel mogelijk de aarde te verlaten om te zoeken naar een omgeving die beter geschikt is voor elektronica? Wij zullen tegen die tijd de insecten zijn, en zij het superintelligente ras. Dan zullen ze ons wel met rust laten. Toch?

"De AI-gestuurde machines hebben niet dezelfde beperkingen als de mens, waardoor ze geen moeite zullen hebben om de woestijnen, oceanen of de ruimte te koloniseren," aldus Svedic. "Sterker nog, de kou op de polen is uitermate geschikt voor het koelen van de machines, vacuüm is perfect voor het maken van elektronica, en constante sterke zonnestralen bevorderen de machines die gebruik maken van zonne-energie. Daarnaast is het voor hen geen probleem om honderden jaren naar een andere planeet te reizen, aangezien ze toch onsterfelijk zijn."

Advertentie

Een tegenargument voor dit standpunt is het 'paperclip maximizer' idee van Nick Bostrom, een Britse filosoof die beroemd is vanwege zijn werk rond het idee van superintelligente AI. In dit scenario streeft een superintelligent ras van kunstmatige intelligentie een compleet arbitrair doel na. In dit geval: het maken van zo veel paperclips als maar mogelijk is. Waarom ze perse paperclips willen maken, en wat ze met al die paperclips willen doen als ze klaar zijn is niet relevant. Maar de robots hebben dit doel stevig in hun rationele, koude brein geprent, en ze zullen zich nergens door laten weerhouden om zo veel mogelijk paperclips te maken.

In dit scenario zouden de robots de mensen inderdaad waarschijnlijk negeren alsof we insecten waren. Maar denk eens aan hoeveel insecten de mens waarschijnlijk dood heeft gemaakt bij het opbouwen van onze beschaving. In het paperclip maximizer scenario houdt het AI-ras zich dus bezig met het maken van paperclips. Eindeloos veel paperclips. Net zo lang tot er in het hele universum nog maar twee soorten dingen bestaan: paperclips, en dingen waarvan je geen paperclips kunt maken.

Svedic verwerpt de hypothese door simpelweg aan te nemen dat de aarde waarschijnlijk niet de beste plek is om paperclips te maken. Maar dat is volgens sommige denkers in het veld waar Svedic de plank begint mis te slaan. "Het probleem met de paperclip maximizer is niet dat de aarde perse erg belangrijk is voor het maken van paperclips, of dat het computerras geen paperclips zou kunnen maken als het mensen met rust zou laten. Het probleem is dat de paperclip maximizer altijd meer paperclips zal willen maken. Zolang er geen consequenties zijn (bijvoorbeeld het in gevaar brengen van het bestaan van andere paperclips), zal de 'paperclip maximizer' net zolang doorgaan tot ook hele aarde, net als alle andere materie in het universum, is veranderd in een hoopje paperclips."

Advertentie

Met andere woorden, het feit dat AI misschien niet actief de mensheid wil vernietigen, betekent nog niet dat we met rust gelaten worden. Het punt is dat een AI met een doel compleet onverschillig is voor alles dat niet helpt om dat doel te bereiken. Who gives a shit als de aarde moet worden omgesmolten als je er een paar extra paperclips van kan maken?

Yudkowsky benadrukt nog eens dat een hyperintelligent AI ons waarschijnlijk niet meteen zal verwoesten. Het zal in het begin waarschijnlijk efficiënter zijn eerst dingen in paperclips te veranderen die minder weerstand bieden, en een uitgebreid berekenen of het de moeite waard is om de aarde en de mensheid te vernietigen om er paperclips van te maken.

Yudkowsky geeft aan dat een ras van AI-bots de Aarde in elk geval niet zal gaan sparen omdat we toevallig heel veel mooie Unesco Werelderfgoedplaatsen hebben. De AI geeft niks om onze cultuur of onze gevoelens voor andere dingen. De AI komt niet naast je zitten om naar een potje voetbal te kijken. De AI heeft geen hobby's, en als het al hobby's zou hebben zullen dat waarschijnlijk geen lange strandwandelingen of gezellig bier drinken met de mens zijn. Jij praat in je vrije tijd toch ook niet met kevers? AI geeft om paperclips, en om niets anders dan paperclips. "Deze AI is geen vriendelijk wezen dat met jou in onderhandeling zal gaan of hij wellicht op een andere plek zijn paperclips kan maken," aldus Yudkowsky.

Advertentie

Dit zal waarschijnlijk alsnog resulteren in de vernietiging van de mensheid. En ergens is dat misschien ook wel de beste uitkomst voor ons. Svedic stelt dat de AI ons niet per se hoeft te vermoorden. Wanneer het bijvoorbeeld blijkt dat wij erg goed zijn in het maken van paperclips, kunnen de robots ons inzetten als slaven (iets wat Musk eerder dit jaar voorstelde).

Maar hoe zal de mensheid reageren op een superintelligent AI ras? "Wanneer we terugkijken naar de begindagen van de technologische singulariteit, [het kritieke moment waarop AI slimmer wordt dan mensen, red.] zouden we willen dat we het AI-monster hadden gestopt," aldus Yudkowsky. "De mensheid zal dit monster alsnog willen vernietigen, misschien wel met behulp van andere AI."

James Barrat, de auteur van Our Final Invention, vindt het artikel van Svedic interessant, maar komt toch tot een vergelijkbare conclusie als die van Yudkowsky.

"Het probleem is dat de AI hetzelfde zal willen als de mens. In tegenstelling tot het artikel van Svedic, wil de AI dezelfde grondstoffen hebben als de mens, zoals energie, brandstoffen en zelfs geld als dat nodig zou zijn voor het bereiken van hun doel," aldus Barrat. "Computers werken niet zomaar, ze hebben energie nodig. Superintelligente machines zullen veel grondstoffen nodig hebben. Zij zullen nanotechnologie toepassen om materie om te zetten in iedere soort grondstof die zij voor hun machines nodig hebben. Dit zal het bestaan van de mensheid zeker in gevaar brengen."

Het zou een fijne gedachte zijn wanneer de AI, die door de mens in gecreëerd, straks tegen ons zegt: "Bedankt makers!" en daarna de ruimte in schiet om vervolgens niets meer van zich te laten horen. Of ze nestelen zich in nu nog onbewoonbare gebieden zoals Antarctica of de woestijn en we op deze manier vredig naast elkaar kunnen leven. Maar het lijkt onwaarschijnlijk dat het zo zal lopen.

De meest positieve reactie die ik heb ontvangen was van Selmer Bringsjord, voorzitter van de "cognitive science" afdeling van het Rensselaer Polytechnic Institute.

"Superintelligente AI is wiskundig gezien waarschijnlijk onmogelijk," vertelde hij mij per email. "Snelheid staat niet gelijk aan intelligentie. De meeste mensen die al deze scenario's rond superintelligente computers serieus nemen hebben een soort snelheidsfetisj. Ze vergeten dat je een functie moet hebben voordat je rekensnelheid ergens voor kunt inzetten."

Omdat ik niet perse warmloop voor het idee in een paperclip veranderd te worden, hoop ik dat Brinsjord gelijk heeft. Maar ondertussen kun je wel je duistere fantasieën kwijt in de realisatie dat ergens in het universum waarschijnlijk al een singulariteit is bereikt. Het is het meest waarschijnlijk dat de dominante levensvorm in het universum inderdaad uit de hand gelopen superintelligente robots zijn. Of ze inderdaad de hele dag aan paperclips denken, valt echter nog te bezien.