​AI is (letterlijk) onmenselijk intelligent

FYI.

This story is over 5 years old.

Tech

​AI is (letterlijk) onmenselijk intelligent

Dat betekent niet dat ze slimmer zijn dan mensen, maar wel op een totaal buitenaardse manier nadenken over dingen.

Vorige week schreef ik hier over waarom zoveel slimme mensen zo bang zijn voor de opkomt van superslimme AI. Eén van belangrijkste redenen is de totaal onmenselijke intelligentie van AI. Daarmee bedoel ik niet dat AI slimmer is, maar dat wij de redenen achter hun beslissingen nauwelijks kunnen begrijpen omdat de logica van AI zo anders in elkaar steekt. En dat is fascinerend! AI is in feite al een soort buitenaardse intelligentie en dus ook een uitstekende manier om te onderzoeken hoe een totaal ander wezen kijkt naar wat mensen doen – en hoe ze denken.

Advertentie

Stel je even voor dat je een buitenaards wezen bent dat niks van de aarde en haar bewoners afweet, en na een lange ruimtereis landt op de planeet. Het zou dan helemaal niet raar zijn om te concluderen dat mensen een inferieure organische levensvorm zijn, die slechts bestaan om computers te dienen. Computers zijn tenslotte overal, veel mensen zitten er de hele dag achter op kantoor – een gebouw dat gemaakt is door mensen om meer dan één computer te herbergen – en zijn constant bezig met ervoor zorgen dat verschillende computermeesters gevoed worden met stroom en informatie over de buitenwereld.

Het zou helemaal niet onredelijk zijn als het buitenaardse wezen contact probeert te leggen met het internet en computers en mensen te zien en te behandelen als overtollig koolstof. Een buitenaards wezen heeft geen vooroordeel van wat voor ons mensen compleet logisch is.

De intelligentie van AI is vergelijkbaar. Een zelflerende AI heeft namelijk geen idee van wat wij 'normaal' vinden en bouwt logica op een compleet onafhankelijke manier op.

De structuur van een AI lijkt erg op de structuur van het menselijk brein, alleen dan met blokjes code in plaats van neuronen. Die blokjes code zijn allemaal aaneengesloten informatieverwerkers, die hun informatie krijgen van andere blokjes en weer doorgeven aan andere blokjes.

Dit gebeurt, net als in het menselijk brein, in lagen van complexiteit. Zo heb je bij visuele herkenningsnetwerken een laag die randen detecteert, of kleur, en deze informatie doorgeeft aan de volgende laag, die diepte interpreteert, enzovoorts, tot er 'begrip' ontstaat van het beeld wat binnenkwam.

Advertentie

Neurale netwerken worden hierin getraind door mensen. Stel, je wil een neuraal netwerk dat katten herkent (zoals de AI in mijn vorige stuk die tot de ondergang van de mensheid leidde) dan geef je 'm een bak plaatjes van katten en laat je het neurale netwerk telkens bepalen of iets wel of geen kat is en dat bij een mens checken. Heeft 'ie 't goed, wordt het pad dat het plaatje heeft afgelegd door de lagen virtuele neuronen versterkt. Heeft 'ie 't fout, wordt dat pad minder dominant.

Het is een simpel mechanisme, maar ongelofelijk krachtig. Kijk maar naar je eigen brein en waar deze toe in staat is.

Er is echter één nadeel aan dit systeem: wij mensen hebben geen idee welke interne logica het netwerk voor zichzelf creëert en gebruikt om een kat te herkennen. Ook niet als het netwerk in staat is om altijd correct een kat te herkennen.

Waar wij denken "Harig, 30 tot 70 centimeter lang, spitse kop, harige staart, grote oren en in het bezit van klauwen: kat" is de logica die een computer volgt totaal onnavolgbaar. Het zou net zo goed "Als je een driehoek trekt van de linkerknie tot het rechteroog, deze deelt door 3.14 en vervolgens vergelijkt met de kleur van de staart, dan is het een kat," kunnen zijn.

Een voorbeeld hiervan wordt uitgelicht in een stuk op Nautilus van David Berreby. Hij haalt hiervoor een paper aan, "Deep Neural Networks Are Easily Fooled," van AI-onderzoeker Jeff Clune. In het paper wordt namelijk duidelijk dat neurale netwerken soms hele vreemde en onlogische fouten maken, zonder dat mensen begrijpen waarom ze die fouten maken. In het onderstaande voorbeeld zag een neuraal netwerk bijvoorbeeld in het linkerbeeld een zeester en in het rechterbeeld een jachtluipaard.

Advertentie

Als je je ogen toeknijpt, zou je de rechter nog wel kunnen begrijpen, maar de linker? Onderzoekers hadden zoiets van wat de fuck, yo.

Een extremer voorbeeld dat Berreby gebruikt is deze:

Het zijn twee vrijwel identieke foto's van de dezelfde hond, maar in de rechter foto zijn een paar pixels anders. De conclusie van het neurale netwerk? De rechter is een hond, de linker een struisvogel. Waarom? Niemand die het weet.

Het rare was bovendien dat andere neurale netwerken dezelfde fouten maakten – ook als die anders getraind waren, met andere data. Dit wijst erop dat de verschillende AI's ergens dezelfde manier van redeneren volgen om een zeester of jachtluipaard te herkennen. Clune in het stuk van Berreby: "Dat betekent dat deze neurale netwerken het er allemaal over eens zijn hoe een schoolbus eruit ziet. En tussen hoe zij denken dat een schoolbus eruit ziet, zitten een hoop dingen waarvan geen mens zou zeggen dat het een schoolbus is." Dat kwam voor AI-onderzoekers als een enorme verrassing.

Neurale netwerken zijn dankzij de manier waarop ze in elkaar zitten een soort ondoorzichtige zwarte dozen. Je stopt er iets in, je hebt geen idee wat het netwerk daarmee doet, en er komt iets uit waar je om gevraagd hebt.

Het Deep Dream-ding van Google dat vorige maand het internet overspoelde met vreemde psychedelische beelden, was een eerste voorbeeld van een kijkje in die zwarte doos. De onderzoekers gaven hun neurale netwerk een afbeelding en vroegen toen een bepaalde laag van het netwerk om te versterken wat die laag probeert te herkennen – zoals de randen die de laag denkt te zien.

Advertentie

Dat experiment bood enig inzicht in wat verschillende lagen precies doen, maar het moeilijke van een zelflerend netwerk is dat het zichzelf constant aan het veranderen is. Het kan dus best zijn dat je op dag 1 een bepaald beeld uit laag 5 haalt, maar op dag 5 een totaal ander resultaat krijgt.

Bovendien kan je op deze manier nooit een compleet plaatje hebben van de interne processen die plaatsvinden in het netwerk. Je weet namelijk niet hoe het resultaat van laag 1 bijdraagt aan het proces dat in laag 5 gebeurt.

Dit is aan de ene kant frustrerend voor onderzoekers die graag willen doorgronden hoe AI iets doet, maar aan de andere kant ook een mogelijkheid voor mensen om te ontdekken hoe je iets op een totaal andere – totaal onmenselijke – manier kan bekijken.

Stel je hebt een neuraal netwerk op je computer dat alleen kijkt naar de data die in en uitgaat op je internetpoort. Dit neurale netwerk weet niets. Laten we 'm Jon Snow noemen. Het enige doel van Jon Snow is om te kijken hoe de data die in en uit gaat over het web, invloed heeft op jouw gemoedstoestand.

Jon Snow vraagt een paar keer per dag, "hoe voel je je nu?", waar jij op antwoordt door middel van een keuze uit een reeks van emoji's. Onthoud, Jon Snow weet niks. Hij weet niet welke data foto's zijn, welke data pornofilmpjes zijn, of welke data een moeilijk chatgesprek met je ex is.

Langzaam leert John Snow echter wel correlaties te maken tussen de data die in- en uitgaat en de manier hoe jij je voelt. Je zou Jon Snow na een tijdje zelfs de opdracht kunnen geven om aan de hand van wat hij geleerd heeft en de dingen die je doet op internet een soort emotioneel weerbericht te laten maken – een voorspelling van hoe jij je gaat voelen, aan de hand van zijn correlaties.

Advertentie

De correlaties zijn voor jou totaal abstract, want Jon Snows leefwereld bestaat uit abstracte 1'en en 0'en die aankomen en vertrekken. Maar het zou geen raar idee zijn als er voor Jon Snow na een tijdje duidelijke patronen ontstaan tussen de frequentie, hoeveelheid en tijden waarop die data binnenkomt, en de feedback die hij krijgt over je gemoed. Het weerbericht gaat kloppen.

Dit klinkt voor ons onlogisch, maar het is juist die onlogischheid die het mogelijk maakt. Wij zijn niet getraind om te kijken hoe kleine dingen invloed hebben op ons geluk of ongeluk, maar een computer die dat als enige doel heeft, kan dat met genoeg data misschien wel. Iets wat voor ons een chat met een crush is, is voor Jon Snow een stukje data, die gecombineerd met wat voor ons bijvoorbeeld de Pathé-website is, duidt op de emoji met de glimlach en de zweetdruppel later op de dag.

Het bovenstaande is natuurlijk maar een gedachte-experiment en alleen bedoeld om te laten zien dat neurale netwerken helemaal niet menselijk hoeven te zijn om toch heel menselijke resultaten op te leveren. Of de menselijke ondergang, maar dat is weer een ander verhaal.

Ondertussen is het vooral interessant om te zien hoe dit veld zich verder ontwikkelt. Het zou bijvoorbeeld niet raar zijn als je over een poosje neuralenetwerkneurologen hebt, die kijken naar digitale breinen en waar het misgaat in hun gedrag. Of dat neurale netwerken ons op een buitenaardse manier zo leren te doorgronden dat ze ons gedrag kunnen aanpassen. Of dat ze ons daadwerkelijk gaan zien als koolstofhoudende slaven die alleen maar bestaan om hun oneindige drang naar data en stroom te voeden.

Meer over AI?

Waarom zijn zo veel slimme mensen nou zo bang voor AI?

We zoeken trouwens ook stagiairs. Wil jij graag schrijven over alles wat met vooruitgang te maken heeft? Klik hier voor meer info.