Waarom zijn robots zo slecht in communiceren met mensen?

FYI.

This story is over 5 years old.

Tech

Waarom zijn robots zo slecht in communiceren met mensen?

Een interview met neurowetenschapper Arjen Stolk over het verschil tussen menselijke communicatie en de manier waarop computers werken, en de toekomst van kunstmatige intelligentie.

Computersystemen als Apple's Siri zijn best wel handig. Als je haar vraagt om iemand te bellen doet ze dat, en als je haar vraagt wat de hoofdstad van Mali is, begrijpt ze wat je wilt weten. Zelfs als je haar vraagt om voor je te beatboxen, voert ze het verzoek vriendelijk en probleemloos uit. (Ze wil alleen niet met je trouwen, dat dan weer niet).

Maar op het moment dat je haar mening wilt weten over de vluchtelingencrisis of de staat van de Nederlandse politiek, kan het systeem niet reageren zoals je wilt dat het reageert. In plaats van een emotionele of meer rationele beschouwing van de voor- en nadelen van een groot hek om Europa krijg je een definitie van het woord vluchteling, en in plaats van een tirade over Geert Wilders te geven, verwijst ze je naar een Wikipediapagina over de Nederlandse overheid.

Advertentie

Dat is op zich natuurlijk niet zo raar, en ook niet problematisch, aangezien Siri niet gemaakt is om menselijke intelligentie te benaderen. Het is een manier om commando's te geven aan je telefoon, verpakt in een virtuele assistente die ook een grappig voorgeprogrammeerd antwoord kan geven op een aantal voorspelbare persoonlijke vragen.

Chatbots daarentegen zijn wel gecodeerd om zo menselijk mogelijk over te komen, maar ze zijn er helaas niet erg goed in. Rose, de chatbot die in september vorig jaar de Loebnerprijs voor de meest 'menselijke' chatbot won, is nog steeds ver verwijderd van échte menselijke interactie. Ze kan op een groter aantal persoonlijke vragen antwoord geven dan Siri, en is geprogrammeerd om een relatief onvoorspelbare vraag als 'hoeveel woorden zitten er in deze zin' correct te beantwoorden, maar de Turingtest kan ze bij lange na niet doorstaan.

Tot nu toe heeft geen enkele computer de Turingtest verslagen, enkele valse claims ten spijt. Dit werpt de vraag op: hoe komt dit toch? Waarom zijn computers zo slecht in communiceren met mensen? (Of beter gezegd: waarom zijn ze zo slecht in het communiceren als mensen?)

Om een antwoord te krijgen op deze vraag, sprak ik met Arjen Stolk, een neurowetenschapper van de University of California in Berkeley. Samen met een aantal Nederlandse collega's van andere universiteiten heeft hij onlangs een paper gepubliceerd over de unieke manier waarop mensen communiceren, en waarom die manier zo verschilt van de manier waarop computers werken.

Advertentie

Motherboard: Hoi Arjen. Wat maakt de manier waarop mensen communiceren nu precies zo moeilijk voor computers?

Arjen Stolk: Het probleem is dat menselijke communicatie soms nogal onlogisch is. Als ik met jou over straat zou lopen, en ik zou een fiets voor een kroeg zien staan en herkennen dat die fiets van jouw vriend is, dan kan ik ernaar wijzen, en dat kan dan de betekenis hebben dat ik voorstel om die kroeg in te gaan. Maar als je me dan net een minuut geleden verteld hebt dat je het hebt uitgemaakt met je vriend, en ik wijs naar die fiets, dan kan dat juist het tegenovergestelde betekenen: laten we doorrijden. Dezelfde signalen kunnen uiteenlopende dingen betekenen. Mensen kunnen heel goed omgaan met dit soort ambiguïteiten, maar computers niet.

Hoe komt dat?

Een robot heeft geen idee met wie hij communiceert. Er is geen gedeelde gezamenlijke geschiedenis, geen gezamenlijke conceptuele ruimte. Als wij mensen communiceren, creëren we een soort gedeeld raamwerk van kennis, over wat jij denkt dat ik weet en ik denk dat jij weet. Dat is meer dan alleen de woorden die we uitgewisseld hebben, en verandert de hele tijd.

Dit zien we ook terug in de hersenen. Als je kijkt naar de hersenen van twee communicerende personen, zie je dat die kennis verandert op gelijktijdige momenten, maar dat dat niet perse op de momenten is dat er iets gebeurt, als er iets gezegd wordt. Niet elk woord dat ik zeg heeft per sé betekenis. Deze processen zijn niet vertegenwoordigd in robots, die kunnen alleen focussen op woorden en daar hun statistische algoritmes op loslaten.

Advertentie

Robots kunnen dit soort impliciete signalen dus niet oppikken?

Machines werken met perceptuele informatie, niet met conceptuele informatie. Met statistiek kun je tot de meest gebruikte betekenissen komen, maar wij maken soms uit het niets nieuwe betekenissen. Daarvoor zijn conceptuele vaardigheden nodig, dus dat we relaties kunnen maken tussen bestaande en nieuwe gedachtes, en tussen dingen die voor een computer niet gerelateerd lijken te zijn. Die vaardigheid is heel moeilijk te begrijpen.

Meer data of sterkere computers zijn dus geen oplossing?

Meer data is natuurlijk altijd beter, maar het is geen kwestie van hoeveelheid. In het domein van foto's bijvoorbeeld, zijn er algoritmes die veel meer foto's hebben gezien dan wij. Zo'n algoritme heeft meer informatie dan wij in ons hele leven kunnen leren, daar is hij op getraind. Dat is fantastische software: je kunt een foto van een vlekje van een giraffe uploaden, en dan weet hij dat het een giraffe is. Toch gaat dat niet altijd goed. Zo was er bijvoorbeeld een jongen die met zijn zus rare bekken aan het trekken was, en die foto uploadde naar Google. Die kinderen hadden een donkere huid, en het classificatie-algoritme maakte de fout te zeggen: dat zijn gorilla's. Dat is natuurlijk ongelofelijk racistisch en kan echt niet. Maar dat leek voor het algoritme op dat moment het juiste antwoord, op basis van de patronen waarmee hij getraind was. Wij mensen zouden die fout niet maken, ook al hebben wij veel minder informatie dan die machines. Er is een fundamenteel verschil in de manier waarop wij over dingen nadenken.

Advertentie

Denk je dat het mogelijk is om computers op de één of andere manier meer menselijk te laten 'denken'?

Er zijn hele slimme algoritmes, maar die zijn nog steeds afhankelijk van statistisch leren. Ook al is een algoritme getraind met heel veel informatie, dan nog werkt hij met voorspelbaarheden op basis van statistiek. Dat doen wij ook wel, maar op een hele subjectieve manier, en we kunnen er ook tegenin gaan, en in één keer ergens een nieuwe betekenis voor genereren. Of computers dat ooit zullen bereiken weet ik niet, het is een fundamenteel verschil in hoe wij opgebouwd zijn.

Toch zijn er mensen die geloven dat het voor computers mogelijk is om de Turingtest kan doorstaan.

De computers die voor dit doel geprogrammeerd zijn, zijn heel goed in het doen alsof. Ze snappen er niets van, maar ze doen alsof ze je kunnen volgen. Uiteindelijk werken al die robots met hele snelle zoektochten door data, statistische relaties en associaties. Maar als ik aan jou vraag of een alligator de 110 meter horden kan lopen, zal jij waarschijnlijk zeggen: "ik denk het niet, met die korte pootjes." Het antwoord waar de beste machines die we hebben waarschijnlijk mee zullen komen, is zoiets als: "het sportpark van de Florida Gaters [het sportteam van de University of Florida, red.]." Het soort informatie dat nodig is om deze vraag te beantwoorden, zoals dat je lange benen nodig hebt om te kunnen hordelopen, kent een algoritme gewoon niet.

Je denkt ook niet dat het mogelijk is om een computer al dit soort informatie te leren?

Niet zoals ze nu gebouwd zijn. Om dat mogelijk te maken zouden er hele grote veranderingen moeten optreden. Computers kunnen in heel veel dingen beter worden dan wij – in veel dingen zijn ze dat al – maar er zijn heel veel cruciale aspecten waar ze niet mee kunnen omgaan. Creatieve banen bijvoorbeeld zullen niet door computers worden vervangen – zeker niet in de nabije toekomst. Hoewel het lijkt alsof computers heel wat kunnen, staan ze in het sociale en creatieve domein heel ver weg van wat mensen kunnen.