Reactie op ‘ChatGPT in de ggz: kansen en overwegingen’
Reflecteren op mogelijke problematische neveneffecten van technologische ontwikkelingen is nooit de sterkste eigenschap van de mens geweest. Dat werd naar onze mening bevestigd toen in het maartnummer van het Tijdschrift voor Psychiatrie een lofzang verscheen op de mogelijkheden van ChatGPT voor de geestelijke gezondheidszorg (ggz) en de noodzaak dit zo snel mogelijk te implementeren.1
De belangrijkste claim is vanzelfsprekend dat de toepassing van ChatGPT de efficiëntie van de behandeling en de bijbehorende administratie zou vergroten. Dat is immers het argument dat zorgprofessionals en hun managers over de streep moet trekken. Van der Meer stelt dat ChatGPT ‘moet’ worden benut door zorgprofessionals en dat instellingen bereid ‘moeten’ zijn om in deze technologie te investeren, terwijl volgens ons juist terughoudendheid op zijn plaats is.
Dat de auteur een toekomst voor zich ziet waarin cliënten ‘het gesprek’ aangaan met een machine, de zorgprofessional overleg of intervisie houdt met die machine en dat het therapeutisch contact door diezelfde machine zou kunnen worden versterkt, vinden wij absurd. Als cliënten namelijk al profijt hebben van een behandeling, is nooit precies duidelijk waardoor dit komt.2,3 De bewering van Van der Meer dat ChatGPT ‘feitelijke informatie juist’ weergeeft, gaat in ieder geval voor psychotherapie dus niet op, omdat die feitelijke informatie niet bestaat.
Psychotherapie staat niet gelijk aan het doorlopen van een beslisboom met feitelijke informatie. Het is een ontmoeting waarin mensen een relatie met elkaar aangaan waarbinnen kwetsbare gevoelens de ruimte krijgen en onderzocht kan worden hoe het leven van de cliënt betekenis kan hebben. Omdat het haast onmogelijk is om te bepalen hoe ChatGPT antwoorden opbouwt, vragen wij ons af waar we onze cliënten – en onszelf - eigenlijk precies aan blootstellen.4
Hoe definieert een machine bijvoorbeeld wanhoop, vertwijfeling en compassie? Wat voor mensbeeld denken wij te scheppen als wij menselijke relaties, fysieke ontmoetingen en zaken als hoop en liefde overlaten aan machines? Met het introduceren van een machinale therapeut bestaat het risico dat onmiskenbaar menselijke ervaringen gereduceerd worden tot meetbare en ‘objectieve’ informatie.
Van der Meer beschrijft wel de beperkingen die er volgens hem ‘helaas’ zijn aan de toepassing van ChatGPT in de ggz. Zo stelt hij dat het wenselijk is om in de toekomst persoonlijke cliëntgegevens en gehele cliëntdossiers te uploaden zodat we de machinale therapeut zo goed mogelijk kunnen ‘trainen’.
Waar we in de ggz eerst een felle strijd hebben moeten leveren om te voorkomen dat ROM- en andere cliëntgegevens bij bijvoorbeeld de Nederlandse Zorgautoriteit (NZA) moesten worden aangeleverd, dreigt nu de (on)vrijwillige overdracht van persoonlijke gegevens aan non-transparante machines, ontwikkeld door nog minder transparante commerciële aanbieders. De standaardformule dat er met onze data zeer zorgvuldig wordt omgegaan, klinkt haast satirisch: hoeveel gevallen van lekken of ongeoorloofde doorverkoop willen we nog meemaken?
Van iedere innovatie moet op verifieerbare wijze de meerwaarde worden aangetoond voor alle betrokken partijen. Wat niet mag ontstaan, is een onbewuste en nutteloze afhankelijkheid, gewoon ‘omdat het kan’. Dat dit met techniek toch zo vaak het geval is, zegt veel over de staat waarin de westerse samenleving is beland en hoe mensen verleerd zijn op een natuurlijke manier met ziekte, lijden en dood om te gaan.
Juist omdat zorgprofessionals in de ggz met kwetsbare mensen werken, dragen zij de verantwoordelijkheid hun cliënten te beschermen tegen nog niet bewezen, en vaak ook niet begrepen, technologische ontwikkelingen. Het essay van Van der Meer voelen wij echter vooral als een oproep tot introductie zonder grenzen. Wij hopen met deze bijdrage duidelijk te maken dat de ggz meer moet zijn dan het introduceren van de laatste technische hype en dat ethische, wetenschapsfilosofische en bovenal menselijke overwegingen belangrijker zijn dan innovatie.
Literatuur
1 Van der Meer BC. ChatGPT in de ggz: kansen en overwegingen. Tijdschr Psychiatr 2024; 66: 161-4.
2 Bruin de E. En weer een nieuwe therapie, en nog een – maar heeft dat zin? NRC 2023. www.nrc.nl/nieuws/2023/07/31/en-weer-een-nieuwe-therapie-en-nog-een-maar-heeft-dat-zin-a4170915
3 Oenen van FJ. Het misverstand psychotherapie. Amsterdam: Boom/de Tijdstroom; 2019.
4 Meester R, Jacobs M. De onttovering van AI: een pleidooi voor het gebruik van gezond verstand. Amsterdam: Mazirel Pers, 2024.
Antwoord aan Alleman en Jacobs
Met belangstelling las ik de reactie van Alleman en Jacobs op mijn artikel over de implementatie van ChatGPT in de geestelijke gezondheidszorg (ggz). Ik was nieuwsgierig naar hun repliek op mijn uitnodiging tot debat en benieuwd welke argumenten zij zouden aanvoeren. Tot mijn verbazing was hun reactie echter eenzijdig negatief en soms ongefundeerd. In mijn artikel pleitte ik voor een weloverwogen implementatie van ChatGPT in de ggz, met ook aandacht voor de beperkingen en de negatieve kanten ervan.1 Dit lijkt aan Alleman en Jacobs voorbij te gaan, wat leidt tot een argumentatie die soms gebrekkig en feitelijk onjuist is. Een zorgvuldiger onderbouwde discussie zou het debat ten goede komen.
In deze reactie zal ik enkele van hun aandachtspunten onderzoeken en van antwoord voorzien. Hiermee hoop ik dat de discussie rondom ChatGPT in de ggz constructief blijft.
Onvoldoende terughoudend?
Ten eerste stellen de auteurs dat ik onvoldoende terughoudend ben in mijn artikel, terwijl ik herhaaldelijk pleit voor een open, kritische en empirische benadering van ChatGPT. Dit komt onder andere naar voren in de secties over de beperkingen en ethische overwegingen van AI-gebruik in de ggz.
Ten tweede schrijven beide auteurs dat zij een toekomst waarin zorgprofessionals en cliënten het gesprek aangaan met ‘machines’ absurd vinden. Deze stelling wordt echter niet verder onderbouwd en berust tevens op een foutieve interpretatie van mijn artikel. De auteurs leggen verband tussen de weergave van ‘feitelijk juiste informatie’ en psychotherapie, maar dat betoog ik in mijn artikel niet. Ik schrijf over een mogelijk ondersteunende rol van ChatGPT in psychotherapie en beschouw de feitelijke onjuistheden als een beperking en een aandachtspunt voor verder onderzoek. Ik ben het namelijk met hen eens dat menselijk contact in therapie onmisbaar is.
Psychotherapie
Daarna volgt een uiteenzetting waarin de auteurs psychotherapie duiden. Vrij helder en voor de hand liggend wat mij betreft. Toch intrigeert het mij waarom zij dit zo uiteenzetten. Zoals zijzelf al vaststellen, bestaat feitelijke informatie niet in psychotherapie, en ik bepleit dat ook niet in mijn artikel. In dezelfde alinea vragen zij zich af waaraan we ons blootstellen als we niet weten hoe ChatGPT antwoorden genereert. Dit is inderdaad een belangrijke vraag die nog onvoldoende is beantwoord. Meer empirisch onderzoek is nodig om hier meer inzicht in te krijgen, en om te bepalen hoe het gebrek aan inzicht in de werking van ChatGPT het gebruik in de praktijk belemmert.
Privacy
Alleman en Jacobs maken een terecht punt over privacy. Ze schrijven dat ik het wenselijk zou vinden dat cliëntgegevens worden geüpload. Echter, ik pleit juist voor een privacysensitief gebruik van ChatGPT. Er zijn technische en organisatorische maatregelen die de privacy kunnen waarborgen. Beveiligde servers waar data niet gebruikt worden door grote bedrijven, anonieme gegevensverwerking en transparante protocollen kunnen ervoor zorgen dat cliëntgegevens beschermd blijven. Het is cruciaal om deze maatregelen te implementeren en te testen om hun effectiviteit te waarborgen. Instellingen maken op dit moment vaak al gebruik van veilige servers bij bijvoorbeeld Microsoft, waar via OneDrive gevoelige informatie veilig staat gestald. Tevens zijn er instellingen die gebruikmaken van een Enterprise-account van Microsoft, waarmee ze toegang hebben tot een versie van ChatGPT in de veilige omgeving van Windows en Office.
Conclusie
In reactie op Alleman en Jacobs heb ik aangegeven welke punten terecht waren en op welke punten zij de plank naar mijn mening missloegen. Hun keuze voor een eenzijdig negatieve reactie is ergens te begrijpen. Een dergelijke reactie doet mij denken aan de luddieten, die begin 19de eeuw met hand en tand de komst van machines in fabrieken in Groot-Brittannië bevochten.2 Deze angstreactie schemert ook door in de repliek van Alleman en Jacobs, wat hun terechte punten dreigt te overstemmen.
Tegelijkertijd lijken ze niet te vallen over AI-innovatie bij rapporteren en het (her)schrijven van brieven. ChatGPT kan immers bij uitstek worden gebruikt als onderdeel van een administratief traject, onder controle van de gebruiker, met tijdwinst als gevolg. Dit is het laaghangend fruit waar we als eerste mee aan de slag móéten gaan in de ggz. Niet om zomaar te innoveren, en niet zodat we worden ‘overgenomen’ door AI, maar om meer tijd vrij te maken voor onze kerntaken binnen de psychiatrie en psychotherapie.
Laten we daarom met alle betrokkenen in de ggz, cliënten en therapeuten, en voor- en tegenstanders, een constructieve en genuanceerde discussie voeren over AI. Door iedereen in de discussie te betrekken, kunnen we tot een breed gedragen en goed geïnformeerd beleid komen. Door samenwerking en onderzoek kunnen we AI inzetten om de zorg te verbeteren, terwijl we privacy waarborgen en uiteindelijk meer tijd vrijmaken voor het werken met cliënten.
Literatuur
1 Van der Meer BC. ChatGPT in de ggz: kansen en overwegingen. Tijdschr Psychiatr 2024; 66: 161-4.
2 Conniff R. What the Luddites really fought against. Smithsonian.com. 2011. https://www.smithsonianmag.com/history/what-the-luddites-really-fought-against-264412/
Auteur
Bart van der Meer, gz-psycholoog, NPI Amersfoort (onderdeel van Arkin).
Auteurs
Jeroen Alleman, gezondheidszorgpsycholoog en psychotherapeut.
Marc Jacobs, datawetenschapper en statistisch consultant.
Correspondentie
Jeroen Alleman (jeroenalleman@hotmail.com).
Geen strijdige belangen meegedeeld.