FYI.

This story is over 5 years old.

Tech

Superintelligente machines kunnen het einde betekenen van de mensheid

Als we niet meer nodig blijken te zijn, wordt er met ons afgerekend.
Afbeelding: Shutterstock

De technologie van de toekomst lokt uiteenlopende reacties uit: deels ontzag, deels weerzin en gevoelens van angst. Gedurende de industriële revolutie noemde Henry Ford het “de terreur van de machine.” Vandaag zijn het de naderende ontwikkelingen in kunstmatige intelligentie die beloven om programma’s te creëren met supermenselijke intelligentie. Deze ontwikkeling gaat gepaard met de beruchte singulariteit, die steeds meer in het publieke bewustzijn verschijnt, zoals de blockbuster Transcendence laat zien.

Er bestaat een gevaar dat sci-fi pulp, zoals Transcendence, de risico’s van kunstmatige intelligentie (KI) in het publieke debat ondermijnen. Maar deze dreiging wordt wel degelijk heel serieus genomen door onderzoekers die zich bezig houden met het existentiële gevaar van KI voor de mens. Het afschilderen van hyper-intelligente machines als pure science-fiction “zou een fout zijn, en potentieel onze ergste fout ooit,” schreef Stephen Hawking in een artikel dat hij laatst neerpende voor de Huffington Post met een aantal andere toonaangevende fysici. Ze claimen dat we serieus onderzoek moeten doen naar de existentiële risico’s en ethische belangen rond de toekomst van KI, omdat het bestaan van de mens er van af kan hangen.

Advertentie

Precies, het toekomstige bestaan van de mensheid - dat is hoe hoog de inzet is. Ik sprak met Daniel Dewey, die de ethiek van machinale super-intelligentie bestudeert aan de universiteit van Oxford bij de Future of Humanity Institute (FHI). Hij hoopt wat perspectief te krijgen op wat de specifieke risico’s zouden kunnen zijn bij de ontwikkeling van KI.

Het brandpunt is, volgens Dewey en andere onderzoekers bij FHI, de ontwikkeling van “superintelligente KI." In het essay dat ten grondslag ligt aan het instituut, genaamd “Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards,” definieert de directeur van het instituut, Nick Bostrom, superintelligentie als een “overstijgende upload.” Oftewel, een brein dat is overgeplaatst naar een krachtige computer. (Hij voegt er aan toe dat het ook mogelijk is om KI van een menselijk niveau te bereiken zonder een brein te uploaden, maar dat zou veel langer duren.)

Het is het standaardscenario voor wat Ray Kurzweil en andere transhumanisten de singulariteit hebben genoemd. Het is een idee dat nog door veel techfiguren niet onderschreven wordt, zoals de mede-oprichter van Microsoft, Paul Allen, die het omschrijft als speculatieve nonsens. Maar de singulariteit wordt door futuristen, zoals die bij de FHI, heel serieus genomen. Ze hebben de taak om te onderzoeken wat de potentiële gevolgen zijn van de KI revolutie zodat we voorbereid zijn op een onvoorspelbare “intelligentie explosie,” en op die manier hopelijk “uitsterven door neveneffect” kunnen voorkomen.

Advertentie

Maar Dewey is voornamelijk een optimist. Toen ik hem vroeg wat een existentieel risico is, zette hij de mogelijkheid van een heldere toekomst uiteen. Mensen hebben het potentieel om net zo lang voort te bestaan als het universum en om onze beschaving uit te breiden tot haar uitersten, zei hij. “Dit betekent dat er veel meer potentieel voor goede dingen is - gelukkige en voldane levens, betekenisvolle relaties, kunst en plezier - op de lange termijn dan op de korte.”

Een “existentieel” risico, gedefinieerd door Bostrom in een onderzoekspaper uit 2002, gepubliceerd in de Journal of Evolution and Technology, is een risico dat een “aanzienlijk deel van die lange-termijn waarde” bedreigt. De FHI is maar één organisatie van de velen die zich momenteel voorbereiden op de potentiële dood van de mensheid door KI. Hieronder vallen namelijk ook het Cambridge Centre for Existential Risk, het Machine Intelligence Research Institute, en het Future of Life Institute.

“Succes in het creëren van KI zou de grootste gebeurtenis zijn in de menselijke geschiedenis,” schreef Hawking. “Helaas, zou het ook onze laatste kunnen zijn, tenzij we leren hoe we de risico’s kunnen vermijden.” Die risico’s houden extreme inkomensverschillen in voor de toekomst, of een groot bio-technologisch ongeluk, of een potentiële ramp die het einde betekent van de volledige mensheid.

Het kan uiteindelijk grondstoffen van ons overnemen, die we nodig hebben om in leven te blijven. Of het kan ons als een gevaar zien voor het afmaken van een taak en besluiten om ons uit het beeld te verwijderen.

Advertentie

“Kunstmatige intelligentie, in de vormen dat het al bestaat, heeft een benoemenswaardig effect op de maatschappij, en er zijn redenen om te verwachten dat het enorme effecten zal hebben in de toekomst,” zei Dewey. “Het kan een rol spelen in het uitsterven van de mens, ongelijkheid doorzetten, of andere existentiële risico’s met zich mee brengen. Wanneer we de risico’s beter begrijpen, kunnen we betere besluiten nemen om ze te omzeilen of om schade binnen de perken te houden.”

Een van de grootste zorgen is “accidenteel misbruik” - wanneer kernfouten in het ontwerp van het programma zich verzamelen, vergroten en uiteindelijk catastrofaal worden. De basisfuncties van KI, legde Dewey uit, zijn het verzamelen van kennis- en hulpmiddelen, zelf-instandhouding en zelf-verbetering. Door continue deze basisfuncties uit te voeren zou een KI machine zich goed genoeg kunnen aanpassen om alle andere taken te kunnen uitvoeren, en dus echt intelligent zijn.

Wat voor taken een intelligente machine dan ook behoort uit te voeren, het is redelijk om te verwachten dat het deze beter zou kunnen uitvoeren wanneer het zichzelf beschermt tegen bedreigingen uit de echte wereld. Vandaar Dewey’s “uitsterving door neveneffect.” Een super-intelligente KI zal de mensheid niet uitroeien omdat het slimmer en beter geschikt is om te regeren, maar omdat het simpelweg zijn basale functies probeert uit te voeren.

“Een superintelligente KI - wanneer het zijn kracht zou richten op het verzamelen van grondstoffen of zelf-bescherming, zou een immense impact op de wereld hebben,” zei hij. “Het zou onze bestaande infrastructuur kunnen overnemen, of technieken en technologieën verzinnen die we nog niet kunnen maken, zoals algemeen toepasbare nanotechnologie. Het kan uiteindelijk grondstoffen van ons overnemen, die we nodig hebben om in leven te blijven. Of het kan ons als een gevaar zien voor het afmaken van een taak en besluiten om ons uit het beeld te verwijderen. Beide scenarios zouden leiden tot het einde van de mensheid.”

Advertentie

Ondanks deze sterke overtuiging dat de mensheid zich op het ergste zou moeten voorbereiden, zei Dewey dat hij er zich van bewust is dat hij en zijn medestanders het mis kunnen hebben. “Natuurlijk, het kan allemaal niet waar blijken te zijn voor een reden die we nu nog niet weten, maar gezien de potentiële impact, het feit dat intelligentie explosie een redelijke mogelijkheid lijkt, moeten we er verder onderzoek naar doen.”

Maar veel mensen scharen de dystopische toekomst-wereld bij science fiction, waaronder noemenswaardige publieke intellectuelen zoals Noam Chomsky. Critici claimen dat de wetenschap in realiteit nog nergens in de buurt komt van het bereiken van de benodigde technologische ontwikkelingen voor super-intelligente machines. En zelfs als we dat konden, zoals media professor José van Dijck van de Universiteit van Amsterdam schreef in haar paper  “Memory Matters in the Digital Age,” zou het menselijk brein niet analoog zijn met die van een computer. Computers zouden dus nooit gelijkssoortig gemaakt kunnen worden als het brein.

Anderen maken zich zorgen dat de manier waarop populaire sci-fi de technologie weergeeft, zoals Transcendence, een potentieel doemscenario zou oversimplificeren. “Veel beter is, denk ik, om daadwerkelijk het ding te bestuderen en te zien wat we er wetenschappelijk over kunnen vinden dan om literaire analyse te doen,” zei Dewey.

Zelfs als de singulariteit er nooit komt, zeggen experts dat kunstmatige intelligentie grote destabiliserende effecten kan hebben op de maatschappij - als we er niet klaar voor zijn. "Het zal zeker enorme economische implicaties hebben,” zei Dewey. “Zulke machines zouden grote hoeveelheden van het werk over kunnen nemen. Het zou ook voor heftige politiek tumult kunnen zorgen, wanneer landen strijden om hun voordeel te doen met de enorme technologische buitenkansen en mondiale, structurele veranderingen. Als we niet voorbereid zijn voor dat type verandering, dan kunnen economische en politieke spanningen hoog oplopen en leiden tot grote ongelijkheden, volksverhuizingen of oorlog.”

Op dit punt lijken Dewey’s zorgen niet veel op het naïeve sci-fi futurisme zoals zijn tegenstanders zijn onderzoek proberen af te schilderen. KI’s effecten in wording zijn reeds voelbaar. Robots met beperkte KI vervangen momenteel steeds meer mensen op de werkplek. Wanneer de trend zich voortzet, zonder degelijke analyse, overzicht en vooruitdenken, hebben we binnenkort te maken met een wereld die op z’n kop is gezet door oncontroleerbare technologische vooruitgang.

Het is jammer, maar het is op dit moment heel moeilijk om oplossingen voor te schrijven of voorzorgsmaatregelen te treffen aangaande de ontwikkeling van KI. Omdat, heel simpel gezegd, we nog niet genoeg weten. Vandaar dat Stephen Hawking opriep om meer onderzoek te doen, zoals FHI, in de gevolgen van KI op de maatschappij.

“Voor het algemeen nut, zouden maatschappijen en overheden onderzoek in de intelligentie explosie en super-intelligente KI moeten ondersteunen en er in investeren,” echoot Dewey. “Wanneer we beter begrijpen hoe de intelligentie explosie zou kunnen ontstaan en hoe we moeten omgaan met super-intelligente KI, zullen we in staat zijn om betekenisvolle voorzorgsmaatregelen te nemen tegen existentiële risico’s van KI.” Hé, de toekomst van de mensheid kan er van afhangen.