Tech

Deze mensen gebruiken ChatGPT als therapeut

Experts in geestelijke gezondheidszorg zijn bang dat mensen door hoge zorgkosten hun heil bij de chatbot van OpenAI gaan zoeken.
A woman in a dark room looks at the glowing screen of laptop
Getty Images

In februari is Dan, een 37-jarige ambulanceverpleegkundige uit New Jersey, ChatGPT gaan gebruiken om verhalen te schrijven. Hij was opgetogen over het creatieve potentieel van de tool van OpenAI om fictie tevoorschijn te toveren, maar uiteindelijk begonnen echte ervaringen en moeilijkheden uit zijn leven in zijn conversaties met de chatbot door te sijpelen.

Advertentie

Zijn therapeut, die hem aan het helpen was met bespreken van complexe traumagerelateerde problemen en werkgerelateerde stress, had voorgesteld dat hij zijn kijk op de dingen die hem overstuur maakten moest veranderen – een techniek die bekend staat als cognitieve herdefiniëring. “Ik was er niet erg goed in. Ik bedoel, hoe moet ik me voorstellen dat dingen anders zijn gelopen als ik er nog steeds boos over ben? Hoe kan ik doen alsof ik niet ben mishandeld, alsof mij geen onrecht is aangedaan?”, vertelt Dan aan Motherboard. 

ChatGPT kon dit foutloos doen, zegt hij, en kwam met antwoorden die zijn therapeut blijkbaar niet kon bedenken. Voor Dan was het gebruiken van de bot als therapiemiddel stressloos, gratis, en op elk moment beschikbaar in het comfort van zijn eigen huis. Hij geeft toe dat hij soms tot vier uur ‘s ochtends op bleef om zijn problemen met de chatbot te delen, een gewoonte die zijn vrouw bezorgd maakte omdat “hij met een computer praatte in plaats van dat hij met haar zijn gevoelens en zorgen besprak”. 

Large language-modellen zoals ChatGPT van OpenAI of Bard van Google krijgen de laatste tijd steeds meer interesse vanwege hun therapeutische potentieel – en worden natuurlijk door utopische Big Tech-influencers aangeprezen als manieren om “geestelijke gezondheidszorg voor iedereen” te verschaffen. Door middel van het koppelen van patronen en data scraping kunnen deze AI-modellen mensachtige spraak produceren die geloofwaardig genoeg is om sommige mensen ervan te overtuigen dat het als een vorm van geestelijke gezondheidssteun kan fungeren. Als gevolg daarvan staat social media nu vol met anekdotes en posts van mensen die zeggen dat ze ChatGPT als therapeut zijn gaan gebruiken. 

Advertentie



In januari kwam Koko, een geestelijke gezondheidsapp uit San Francisco die mede door Robert Morris werd opgericht, onder vuur komen te liggen nadat werd onthuld dat het diens gebruikelijke vrijwilligers voor zo’n 4000 gebruikers met GPT-3-geassisteerde technologie had vervangen. Volgens Morris konden de gebruikers het verschil niet merken, en beoordeelden ze de performance als beter dan die van enkel door mensen geschreven antwoorden. En in België vertelde een weduwe dat haar man zelfmoord had gepleegd nadat een AI-chatbot hem daartoe had aangemoedigd

Nu er in sommige landen steeds meer vraag is naar geestelijke gezondheidszorg en er een gebrek is aan financiering en infrastructuur voor evenwichtige zorg, klinkt een toegankelijke en oneindig aanpasbare optie als ChatGPT als een goede uitkomst. Maar in de geestelijke gezondheidsindustrie worden vaak oplossingen aangeboden die niet in het beste belang voor de patiënten zijn. 

Durfkapitaal- en in Silicon Valley gebaseerde apps zoals Youper en BetterHelp zitten vol met problemen omtrent data privacy en surveillance, die mensen van kleur en mensen in de arbeidersklasse disproportioneel aantasten, en gaan niet in op de meer systematische redenen voor de onrust van hun gebruikers. 

Advertentie

“Ze doen dit in naam van toegankelijkheid voor mensen die door de maatschappij zij gemarginaliseerd, maar we moeten kijken naar waar al het geld naartoe gaat,” vertelt Tim Reierson, een klokkenluider bij Crisis Text Line die werd ontslagen nadat hij hun twijfelachtige tegeldemakingspraktijken en data-ethiek aan het licht bracht, aan Motherboard. 

In 1966 voerde de Duits-Amerikaanse wetenschapper Joseph Weizenbaum een experiment uit bij MIT. ELIZA, vandaag de dag ook wel bekend als ‘s wereld eerste therapie-chatbot. Aanvankelijk werd ELIZA gemaakt als parodie op therapeuten: ze aapte hun (veelal frustrerende) algemene uitspraken na door middel van een natuurlijk taalverwerkingsprogramma. Hoewel het bedoeld was om de “oppervlakkigheid” van interacties tussen mensen en computers aan te tonen, werd het door de gebruikers omarmd. 

De rol van technologie in de relatie tussen therapeut en patiënt is bijna net zo oud als de geschiedenis van therapie zelf, iets wat Hannah Zeavin onderzoekt in haar boek The Distance Cure. Zoals zij opmerkt is het vinden van geestelijke zorg waar geen wachtlijsten, reistijd en kosten voor kantoorgebonden zorg al lange tijd de doelstelling geweest voor mensen met een laag inkomen, en hebben ze daar historisch gezien met hulplijnen en radio naartoe gewerkt. 

Advertentie

Maar niet alle vormen van teletherapie zijn gelijk. Op dit moment is het nog onduidelijk hoe ChatGPT in de toekomst van geestelijke gezondheidszorg zal worden geïntegreerd, hoe OpenAI diens overweldigende data privacy-problemen zal aanpakken en hoe gepast het is voor mensen die met mentale problemen kampen. 

Toch hebben velen zich, met oog op de stijgende zorgkosten en krantenkoppen die het vermogen van AI-taalmodellen de hemel in prijzen, als laatste toevlucht tot onbewezen middelen als ChatGPT gewend. 

Gillian, een 27-jarige directiesecretaresse uit Washington, begon ChatGPT een maand geleden als therapiemiddel te gebruiken om haar verdriet te helpen verwerken, nadat ze zich door hoge kosten en een gebrek aan verzekeringsdekking geen persoonlijke therapie meer kon veroorloven. “Ondanks dat ik goed advies van ChatGPT heb gekregen voel ik me niet per se gerustgesteld. Het zijn fleurige maar lege woorden,” vertelt ze aan Motherboard. “Op dit moment denk ik niet dat het alle nuances van een therapiesessie op zou kunnen pikken.” 

Dit soort ervaringen hebben ertoe geleid dat sommige mensen ChatGPT “jailbreaken” zodat diens therapie-advies minder gekunsteld en vriendelijker en menselijker overkomt. 

De meeste mensen zien AI chatbots als een aanvullend middel voor therapie, niet als volledige vervanging. Dan zegt bijvoorbeeld dat het misschien het beste kan worden gebruikt in noodgevallen of crisissituaties. “AI is een geweldig middel, en ik denk dat het een hoop mensen goed zou kunnen helpen door de barrières van toegankelijkheid, kosten en trots die therapie heeft, weg te halen. Maar op dit moment is het slechts een pleister, en geen volledige vervanging voor echte therapie en geestelijke gezondheid,” zegt hij. “Als aanvulling of in een noodgeval zou het echter precies de juiste oplossing kunnen zijn om mensen door een moeilijke situatie te helpen.” 

Advertentie

Dr. Jacqueline Nesi, een psycholoog en assistent-professor bij Brown University die de rol van social media in de ontwikkeling en geestelijke gezondheid van adolescenten bestudeert, waarschuwt dat ChatGPT niet voor professioneel medisch of diagnostisch advies zou moeten worden gebruikt. Ze merkt ook op dat het gebruiken van de chatbot als therapiemiddel tot een verlies van de “therapeutische alliantie” zou kunnen leiden – de positieve relatie van vertrouwen tussen therapeuten en patiënten. 

“Hoewel het kan voelen alsof een gebruiker een therapeutische relatie met ChatGPT heeft, gaat er waarschijnlijk iets verloren als er geen echte persoon aan de andere kant van het gesprek zit,” vertelt ze aan Motherboard. 

Dit verlies van intimiteit is ook te danken aan financiers en AI-engineers. ChatGPT kan maar moeilijk met ambigue informatie omgaan, en neemt gevaarlijk makkelijk toevlucht tot bevooroordeelde en discriminerende aannames – die het vertrouwen van gebruikers in de tool kunnen schaden. In maart kwam het Distributed AI Research Institute (DAIR) met een statement waarin werd gewaarschuwd dat AI "systemen van onderdrukking nabootst en ons ecosysteem van informatie in gevaar brengt.” In een recent artikel in MIT Technology Review door Jessica Hamzelou werd ook onthuld dat AI-systemen in de gezondheidszorg vaak medisch paternalisme afdwingen, waardoor de behoeftes van hun patiënten worden genegeerd. 

Advertentie

“Ik denk dat gemarginaliseerde gemeenschappen, waaronder mensen die ver van de stad wonen, waarschijnlijk meer barrières tot goede zorg hebben, en zich dus ook sneller tot ChatGPT zullen wenden voor hun behoeftes, als ze überhaupt technologie tot hun beschikking hebben,” vertelt Jessica Gould, een psychiater bij Washington University in St. Louis, aan Motherboard. “Als gevolg daarvan keren patiënten zich tot wat ze kunnen vinden, en snel kunnen vinden.” 

Voor de gemeenschappen die op zoek zijn naar geestelijke gezondheidszorg kan dit een zwaard zijn dat aan twee kanten snijdt – het gebruik van ChatGPT is misschien toegankelijker, maar er is ook minder aansprakelijkheid en kwaliteitscontrole.

Dr. Amanda Calhoun, een expert op het gebied van de geestelijke gezondheidseffecten van racisme in het medische veld, zegt dat de kwaliteit van ChatGPT-therapie ten opzichte van echte therapie afhankelijk is van waar het op is gemodelleerd. “Als ChatGPT op bestaande databases gebaseerd blijft worden, die gefocust zijn op witte mensen, dan is het antwoord nee,” vertelt ze aan Motherboard. “Maar wat als ChatGPT zou worden ‘getraind’ met een database en een systeem die door zwarte geestelijke gezondheidsprofessionals zijn gemaakt, die experts zijn op het gebied van de effecten van anti-zwart racisme? Of transgender geestelijke gezondheidsexperts?”

Alle geestelijke gezondheidsexperts waar Motherboard mee sprak zeiden dat, hoewel het gebruik van ChatGPT als therapiemiddel mensen hun privacy in gevaar zou kunnen brengen, het beter dan niets is, wat ook een indicatie is voor een crisis binnen de grotere geestelijke gezondheidsindustrie. Het gebruiken van ChatGPT als therapiemiddel is volgens Emma Dowling, auteur van The Care Crisis, een voorbeeld van een “care fix” – het uitbesteden van zorg naar apps, zelfhulpboeken, robots en verzelfstandigde handen.

Bij de recente release van GPT-4 zei OpenAI dat het met “vijftig experts uit velden zoals AI-afstemmingsrisico’s, cybersecurity, biorisico, vertrouwen en veiligheid” aan het werk was om diens beveiliging te verbeteren, maar het is nog niet duidelijk hoe dit zal worden geïmplementeerd voor mensen die mentale hulp zoeken, als dat überhaupt wordt gedaan.



Denk jij aan zelfdoding? Of ken jij iemand die aan zelfdoding denkt? In Nederland kan je anoniem praten met 113 Zelfmoordpreventie via chat op www.113.nl, of bel 0800-0113 (gratis) of 113 (gebruikelijke telefoonkosten). In België kan je bellen, chatten of mailen met de Zelfmoordlijn 1813

Dit artikel verscheen oorspronkelijk op Motherboard.


Volg VICE België en VICE Nederland ook op Instagram.