FYI.

This story is over 5 years old.

Tech

Kunstmatige intelligentie gaat ons misschien toch niet allemaal doden

Tenminste, zolang het doet wat wij opdragen.

​Befaamd natuurkundige en AI- paniekzaaier Stephen Hawking is een van de ondertekenaars van een nieuwe open brief die een begeerde toekomst voor onderzoek naar kunstmatige intelligentie schetst.

Het Future of Life-instituut is een vrijwilligersorganisatie die zijn missie heeft gemaakt van het "verzachten van de existentiële dreigingen die de mensheid omringen." Vandaar dat zij zich genoodzaakt voelden om zich uit te spreken over de gang van zaken rondom de AI-kwestie. Om hun waarschuwing extra kracht bij te zetten hebben enkele honderden mensen de brief ondertekend, waaronder wetenschappers van over de hele wereld, AI onderzoekers van o.a. Google, enkele namen van Singularity University, en SpaceX-baas Elon Musk (die eerder al waarschuwde voor AI.)

Advertentie

​Waar eerdere berichten zich hoofdzakelijk focusten op een apocalyptisch einde in het AI verhaal – inclusief een artikel waarin Hawking en enkele van zijn collega's waarschuwen dat de creatie van AI een van de laatste daden van de mensheid zou kunnen zijn – heeft deze brief een positievere insteek. In de brief, en het bijgevoegd onderzoek, focussen ze zich op waar AI het meest van pas zou kunnen komen. Míts we het onder controle kunnen houden, natuurlijk. "De potentiële voordelen zijn enorm. Aangezien alles dat onze beschaving te bieden heeft een product van menselijke intelligentie is, kunnen we niet bevatten welke dingen we zouden kunnen bereiken als intelligentie vergroot wordt door die instrumenten. Maar de uitroeiing van ziektes en armoede is niet ondenkbaar," filosoferen de auteurs. Het doel van het onderzoek is om er zeker van te kunnen zijn dat AI-onderzoek ons richting veilige havens leidt. Tenslotte zouden "onze AI-systemen moeten doen wat wij ze opdragen." De onderzoekers hebben enkele korte-termijn doelen opgesteld. Dingen als het maximaliseren van de economische voordelen door te kijken naar de impact van automatisering op de banenmarkt; het verkennen van ethische en juridische vraagstukken als privacy, aansprakelijkheid, gebruik van autonome wapens; en een nadruk op het maken van systemen die fundamenteel veilig zijn.

"onze AI-systemen moeten doen wat wij ze opdragen"

De veiligheidsvraagstukken staan op de eerste rij in de lange-termijn doelen van het team. Ze schrijven dat "een lange-termijn doel van enkele wetenschappers betreft het ontwerpen van systemen die kunnen leren van ervaringen met de bizarheid van de mens. Maar de hoop is dat zo'n systeem uiteindelijk ook de mens voorbij kan streven in de meeste cognitieve taken, en op die manier een grote positieve impact op de maatschappij kan hebben."

Als er een kans is, maakt niet uit hoe miniem, dat we op dit punt zouden kunnen komen dan moeten we die grijpen. Ze benadrukken dat er in dat geval meer onderzoek nodig is om ervoor te zorgen dat AI "robuust en voordelig" blijft. Want als er iets slimmer is dan wij, dan moeten we alles op alles zetten om het aan onze kant te krijgen én te houden. Het onderzoek richt zich de vragen die rondom de ontwerpfase van de intelligente systemen; dus het bouwen op de juiste manier, met de juiste beveiliging en controle. Dat laatste – controle – is het soort bezorgdheid die meestal leidt tot apocalyptische retoriek die we tegenwoordig gewend zijn van dit onderwerp. Wat als ze zich tegen ons keren? Hoe autonomer een machine opereert, hoe groter de kans is dat het angst-scenario waarheid wordt. Daarom, beargumenteren de auteurs, moeten we onderzoeken hoe die machines niet buiten onze controle kunnen belanden. Het is een meer optimistische aanpak van onze AI-toekomst. Niettemin blijft de technologie een risico met zich mee dragen, maar als we nu al de mogelijkheden gaan aftasten hoe we de risico's kunnen aanpakken, zitten we hopelijk oké. En als we AI aan onze kant kunnen krijgen in de strijd tegen zaken als ziektes en armoede, dan zouden we misschien wel beter dan oké kunnen zitten.

Je kan hier trouwens binnenkort stage komen lopen. Mail alejandro.tauber[@]vice.com voor meer info.​