ChatGPT in mental health care
Background ChatGPT is increasingly used in various sectors, from lawyers to copywriters. However, its implementation in Mental Health Care (MHC) is still largely uncharted territory, both administratively and therapeutically.
Aim This essay provides an informed view on the practical implementation of ChatGPT in MHC, paying special attention to both administrative and therapeutic applications, as well as identifying some challenges.
Method Through exploratory contemplation and literature research, the use of ChatGPT in MHC is depicted, considering the applications and limitations of the technology.
Results ChatGPT can be effectively used for administrative tasks such as generating letters and documents. Additionally, it offers potential in treatments, provided it is carefully implemented and evaluated. Practical examples illustrate the versatility of ChatGPT in MHC.
Conclusion ChatGPT has the potential to significantly transform MHC, from streamlining administrative tasks to enhancing therapeutic contact. Aspects such as privacy and information accuracy should be central in its implementation. While current scientific evidence is still quite limited, ChatGPT already offers possibilities that should now be utilized by healthcare professionals. It is crucial that therapists form an opinion about ChatGPT, and institutions should be willing to invest in this innovative technology.
In november 2022 verscheen ChatGPT, een chatbot die gebruikmaakt van kunstmatige intelligentie (AI) om zelf teksten te schrijven.1 ChatGPT is een dynamisch leersysteem dat complexe patronen en relaties tussen woorden en zinnen analyseert en interpreteert. Het model analyseert de relatie tussen woorden en kan op deze manier voorspellen welke woorden elkaar het beste op kunnen volgen. Doordat ChatGPT hierin zeer geavanceerd is, kan het systeem op haast menselijk niveau teksten analyseren en creëren. ChatGPT voert creatieve taken uit zoals het componeren van liedjes, het schrijven van gedichten, en het analyseren en genereren van teksten. Naast de mogelijkheid om via geschreven tekst te communiceren met ChatGPT is het ook mogelijk om via spraak te communiceren. Door de unieke mogelijkheden om teksten te analyseren en te schrijven kreeg ChatGPT vanaf het begin veel aandacht.2,3 Met name het gebruik door studenten is breed uitgemeten in de media en tevens is er gespeculeerd over de potentie van ChatGPT in de geestelijke gezondheidszorg (ggz).
Helaas heeft dat nog niet geleid tot een heldere visie op de praktische implementatie van ChatGPT in de ggz. Dit is een groot gemis omdat ChatGPT een waardevolle aanvulling zou kunnen zijn voor de ggz. In dit essay roep ik professionals en instellingen op om ChatGPT in de praktijk te implementeren. Om dit te onderbouwen licht ik toe hoe ChatGPT geïmplementeerd kan worden in verschillende processen in de ggz, zowel op administratief gebied alsook in de therapeutische setting. Ten slotte licht ik een aantal beperkingen en aandachtspunten bij het gebruik van ChatGPT in de ggz uit.
Mogelijke toepassingen van ChatGPT
ChatGPT kan een belangrijke rol spelen in administratieve processen, met name de tekstuele mogelijkheden van het model komen bij dergelijke taken naar voren. Door de tekstuele én spraakcapaciteiten van ChatGPT wordt de informatievoorziening in de psychiatrie geoptimaliseerd.4 Om dit te illustreren volgt er nu een overzicht van mogelijkheden voor implementatie van ChatGPT in de ggz.
Brieven
In elke sector binnen de ggz is het schrijven van brieven een terugkerende en tijdrovende taak. ChatGPT kan de last van deze taak verlichten door dossierinformatie samen te vatten en te herschrijven in duidelijke en bondige taal. Tijdens het schrijfproces kan ChatGPT een analyse geven van de opbouw en schrijfstijl van de brief en alternatieven bieden om de leesbaarheid van de brief te verbeteren. De gebruiker hoeft dan alleen nog het best passende alternatief te kiezen. Daarnaast kan ChatGPT twee versies van dezelfde brief schrijven: een voor de zorgprofessional en een voor de cliënt.5 Beide versies bevatten dezelfde feitelijke informatie, maar zijn aangepast aan de deskundigheid of het begripsniveau en de beleving van de lezer. Na een klinische opname genereert ChatGPT bijvoorbeeld twee versies van een ontslagbrief, een voor professionals, en een voor de cliënt met een uitleg van wettelijke protocollen in begrijpelijke taal. Het laten schrijven of herschrijven van een brief door ChatGPT bespaart tijd voor de zorgprofessional, die de brief alleen nog moet controleren op de inhoud. Het ontvangen van een begrijpelijke en persoonlijke brief zal de tevredenheid van cliënten verhogen.
In therapie
Therapeuten zijn meestal beperkt beschikbaar voor cliënten. Naast een face-to-faceafspraak is de communicatie tussen cliënt en therapeut beperkt. In therapie kan ChatGPT ondersteuning bieden aan cliënten tussen therapiesessies door.6 Met een opdracht aan ChatGPT kan er een persoonlijke digitale therapeut klaar staan met kennis van stoornissen en interventies, en met achtergrondkennis van de cliënt. Op het moment dat een cliënt ’s nachts een paniekaanval krijgt, kan deze bijvoorbeeld ChatGPT consulteren. Op basis van cliëntspecifieke kennis biedt ChatGPT geïndividualiseerde oplossingen, zoals een passende mindfulnessoefening. In de volgende therapiesessie evalueert de therapeut samen met de cliënt de effectiviteit van de ChatGPT-interventie en bespreekt strategieën bij toekomstige paniekaanvallen. De gesprekken die de cliënt en ChatGPT voeren, worden automatisch opgeslagen als tekst, zodat deze later terug zijn te lezen. Dit biedt de mogelijkheid om ChatGPT de teksten te laten analyseren op terugkerende thematiek die anders niet aan het licht was gekomen.
Rapportages
Rapportages zijn een belangrijk, maar tijdrovend deel van behandeltrajecten, meestal bestaande uit samenvattingen van gesprekken met feitelijke notities en aantekeningen over het therapeutisch proces. Hoewel deze rapportages vaak slechts eenmaal binnen het behandeltraject worden geraadpleegd, kan de inzet van ChatGPT de waarde van deze gegevens aanzienlijk verhogen. ChatGPT kan de data samenvatten en analyseren, bijvoorbeeld door cliëntspecifieke onderliggende patronen uit de rapportages te filteren.6-7 Daarnaast kan ChatGPT met tekstanalyse bepaalde therapie-interfererende factoren herkennen en de algemene stemming van therapierapportages beoordelen. Dergelijke analyses kan de therapeut als input gebruiken in het behandelproces. De therapeut controleert dan de analyse van ChatGPT op onderbelichte thema’s of verborgen therapie-interfererende factoren. Een beknopte samenvatting van deze rapportages kan de therapeut vervolgens in het behandelplan integreren.
Psychodiagnostiek
Het psychodiagnostisch proces is complex en tijdrovend, en het onderzoeksverslag is voor leken vaak ingewikkeld om te begrijpen. In dit licht biedt ChatGPT significante voordelen, zowel voor professionals als voor cliënten. Bij het opstellen van een onderzoeksverslag gaat ChatGPT verder dan traditionele tekstverwerkers. Terwijl standaardtekstverwerkers zoals Word zich beperken tot spellings- en grammaticacontroles, kan ChatGPT vaag taalgebruik identificeren en alternatieven voorstellen die consistent zijn met de algehele stijl van het document. Daarnaast kan ChatGPT op basis van het onderzoeksverslag voorstellen doen voor diagnoses en behandeldoelen.8 Er zijn al online-AI-modellen die met een korte beschrijving van de klachten opties geven voor mogelijke diagnoses en een passend aanbevolen behandelplan.9 Voor cliënten kan ChatGPT eveneens van grote waarde zijn door technische termen en jargon uit het verslag te vertalen naar meer toegankelijke taal, wat het begrip en de betrokkenheid van de cliënt ten goede komt.
Behandelplannen
ChatGPT kan helpen bij het schrijven van behandelplannen, bijvoorbeeld door een samenvatting te schrijven en passende behandeldoelen voor te stellen. De therapeut en cliënt stellen samen behandeldoelen op passend bij de klachten en de hulpvraag. ChatGPT geeft vervolgens aan of er nog potentiële behandeldoelen over het hoofd zijn gezien. Vervolgens kan de therapeut samen met de cliënt beslissen of zij de alternatieven van ChatGPT overnemen. Bovendien heeft ChatGPT de capaciteit om behandelplannen te verwoorden op verschillende niveaus, zowel afgestemd op de professional als op de cliënt. Dit bevordert de communicatie, verhoogt de zorgkwaliteit en versterkt het commitment van cliënten.10 Tevens is ChatGPT in staat om een ingewikkeld werkmodel in eenvoudige woorden weer te geven.7 Dit maakt het begrijpen van complexe informatie voor iedereen toegankelijk. Ten slotte kan ChatGPT labuitslagen vertalen naar eenvoudige en relevante termen, en eventuele vragen of zorgen van de cliënt of de professional beantwoorden.6
Sparringpartner
Therapeuten worden soms geconfronteerd met behandelingen waar conventionele methodes niet de gehoopte resultaten opleveren. In zulke situaties kan ChatGPT een cruciale ondersteunende rol spelen door het voorstellen van alternatieve therapeutische interventies.11 De therapeut geeft een overzicht van de gekozen behandelfocus, de klachten van de cliënt en de eerder toegepaste interventies, en ChatGPT stelt diverse passende interventies voor. Zo kan ChatGPT bij een gegeneraliseerde angststoornis waarbij medicatie en CGT geen optimale uitkomst hebben geboden acceptance and commitment therapy (ACT) voorstellen. Dit advies is gebaseerd op relevante en direct toegankelijke onlinestudies. Dit advies wordt ondersteund door relevante studies die meteen online te vinden zijn. De therapeut en cliënt bespreken vervolgens in een consult of ze deze nieuwe behandelroute willen volgen.
Beperkingen van ChatGPT binnen de ggz
Ondanks het innovatieve karakter van ChatGPT is er aan de toepassing binnen de ggz helaas een aantal beperkingen verbonden.
Bescherming van privacy
Hoewel OpenAI, het bedrijf achter ChatGPT, geen persoonlijke data verkoopt, kunnen ze deze data wel gebruiken om hun modellen te trainen. Op die manier kan zeer persoonlijke informatie uit cliëntdossiers in ChatGPT terechtkomen, waar het vervolgens niet meer uit gehaald kan worden. Dit is nog overkomelijk op het moment dat het een niet te herleiden geboortejaar is, of een op zichzelf staande diagnose die niet naar een cliënt te herleiden is, maar er ontstaat een probleem wanneer een volledig dossier of onderzoeksverslag wordt geüpload naar ChatGPT. Gelukkig zijn hier oplossingen voor. Gebruikers kunnen ervoor kiezen om chats niet in ChatGPT op te slaan waardoor OpenAI de informatie na 30 dagen wist. Bedrijven en instellingen kunnen een bedrijfsaccount afsluiten bij OpenAI zodat data niet in ChatGPT-modellen terechtkomen en op beveiligde servers komt te staan.
Feitelijke onjuistheden
Over het algemeen geeft ChatGPT feitelijke informatie juist weer. Toch is het verzinnen (‘hallucineren’) van informatie een groot risico, met name omdat ChatGPT de verzonnen informatie op een betrouwbare manier presenteert.4,12 ChatGPT, en specifiek versie 3.5, heeft soms de neiging om fictieve bronnen te genereren, zoals een niet-bestaande bronnenlijst of onnauwkeurige informatie over de achtergrond van schematherapie. Hoewel ChatGPT over het algemeen betrouwbare informatie kan verstrekken, ligt hierin juist een potentieel gevaar. Gebruikers dienen ChatGPT alleen te raadplegen voor onderwerpen waarin ze voldoende bekwaam zijn zodat ze de juistheid van de verstrekte informatie kunnen beoordelen.
Het gebruiken en het verspreiden van onjuiste informatie leiden tot verkeerde beslissingen en misleiding van zowel collega’s als cliënten. De gebruiker kan alle bronnen zelf opzoeken en verifiëren om zich ervan te vergewissen dat de informatie klopt. Dit kost echter tijd en moeite, en een zoektocht op Google Scholar of PubMed is dan vele malen betrouwbaarder.
Gebruikers kunnen ChatGPT opdracht geven om geen informatie te verzinnen, niet te hallucineren, en het aan te geven als ChatGPT iets niet weet. Dit verkleint de kans op hallucineren. Daarnaast heeft ChatGPT sinds kort weer de mogelijkheid om op internet naar informatie te zoeken en bijbehorende verwijzingen hiernaar te geven. Dit leidt tot een verhoogde kwaliteit van de aangehaalde bronnen, maar het ontslaat de gebruiker niet van de verantwoordelijkheid om de nauwkeurigheid van ChatGPT’s antwoorden te controleren.
Risico op bias
Hoewel OpenAI inspanningen heeft geleverd om vooroordelen en bias in ChatGPT te verminderen, blijft het reële risico bestaan dat het systeem nog steeds latent aanwezige biases bevat.3,12 Deze vooroordelen kunnen uiteenlopen van culturele en sociaaleconomische aspecten tot gendergerelateerde kwesties. Ze zijn ontstaan doordat de dataset waarop ChatGPT is getraind afkomstig is van menselijke teksten die van nature vooroordelen bevatten. Dit heeft potentieel ernstige consequenties, zoals discriminatie, stereotypering en stigmatisering van bepaalde groepen of individuen.
De impact hiervan is binnen de ggz, een omgeving waar vertrouwen en begrip essentieel zijn, nog groter aangezien veel cliënten al kampen met stigma’s rondom hun klachten en diagnoses. Er zijn weliswaar maatregelen genomen om de mate van bias van ChatGPT te beperken, zoals menselijke controle van de output tijdens de trainingsfase en een AI-beloningsmodel dat diversiteit en objectiviteit beloont, maar het blijft een uitdaging. Het is dan ook cruciaal dat professionals in de ggz zich bewust zijn van deze beperkingen en voortdurend kritisch blijven bij het gebruik van ChatGPT.
Aansprakelijkheid
Aansprakelijkheid bij het gebruik van ChatGPT, vooral in academische publicaties, is een ander belangrijk punt.4,7,10 Er is discussie geweest over het al dan niet vermelden van ChatGPT als bron of auteur, maar de gebruiker blijft verantwoordelijk voor het gebruik van de output. Het is vergelijkbaar met het gebruik van tekstverwerkers zoals Microsoft Word, die ook suggesties doen, maar nooit als auteurs worden vermeld. ChatGPT, Google en Wikipedia kunnen het beste worden gezien als startpunten in onderzoek, maar niet als definitieve referenties.
Gebrek aan transparantie
Ten slotte wordt de werking van ChatGPT vaak als een ‘black box’ gezien: het interne besluitvormingsproces is ondoorzichtig en de exacte werking van ChatGPT blijft grotendeels verborgen. Dit kan leiden tot onverwachte en soms onverklaarbare resultaten, die lastig te corrigeren en te begrijpen zijn.6,13 Als tegenhanger voor dit soort gesloten systemen zijn er ook large language models (LLM’s) die open source zijn: de softwarecode is openbaar en kan door iedereen met kennis van programmeren gebruikt worden. Opensourcemodellen zijn inzichtelijk voor iedereen, maar vragen helaas een dermate hoog niveau van software programmeren dat de meesten daardoor zullen kiezen voor een gesloten, maar toegankelijk LLM zoals ChatGPT. In de ggz, waar betrouwbaarheid en ethiek fundamentele waarden zijn, vormt de black-boxaard van ChatGPT een aandachtspunt, en we zullen moeten streven naar een LLM met een passende balans tussen toegankelijkheid en transparantie.
Conclusie
De opkomst van ChatGPT heeft het potentieel om de ggz ingrijpend te veranderen. Het systeem stroomlijnt niet alleen administratieve taken, maar verhoogt ook de kwaliteit en efficiëntie van behandelingen. Desondanks blijven er significante beperkingen, zoals de huidige onzekerheid over de langetermijneffecten van AI op de therapeutische relatie en de bescherming van patiëntgegevens. Er is een duidelijke behoefte aan empirisch onderzoek naar de impact van ChatGPT op behandeluitkomsten en patiënttevredenheid. Toekomstig onderzoek zou zich kunnen richten op longitudinale studies naar de effecten van ChatGPT-geassisteerde interventies op diverse patiëntpopulaties.
Ook de ontwikkeling van ethische richtlijnen voor het gebruik van AI in de ggz verdient aandacht, om te waarborgen dat technologische vooruitgang hand in hand gaat met de handhaving van de waarden van de zorg. Gezien de aanhoudende vooruitgang in generatieve AI-technologieën is het van cruciaal belang dat zorgprofessionals actief participeren in dit veranderingsproces, om voorbereid te zijn op en bij te dragen aan de toekomstige vorm van geestelijke gezondheidszorg.
literatuur
1 OpenAI. GPT-4 technical report, 2023, http://arxiv.org/abs/2303.08774.
2 Khosravi H, Shafie MR, Hajiabadi M, e.a. Chatbots and ChatGPT: A bibliometric analysis and systematic review of publications in Web of Science and Scopus databases. arXiv 2304.05436 2023.
3 Eloundou T, Manning S, Mishkin P, e.a. Gpts are gpts: An early look at the labor market impact potential of large language models. arXiv:2303.10130 2023.
4 Ray PP. ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope. Internet of Things and Cyber-Physical Systems 2023; 3: 121-54.
5 Ali SR, Dobbs TD, Hutchings HA, e.a. Using ChatGPT to write patient clinic letters. Lancet Digit Health 2023; 5: e179-81.
6 Sallam M. ChatGPT utility in healthcare education, research, and practice: systematic review on the promising perspectives and valid concerns. Healthcare 2023; 11: 887.
7 Gual-Montolio P, Jaén I, Martínez-Borba V, e.a. Using artificial intelligence to enhance ongoing psychological interventions for emotional problems in real-or close to real-time: a systematic review. Int J Environ Res Public Health 2022; 19: 7737.
8 Bommasani R, Hudson DA, Adeli E, e.a. On the opportunities and risks of foundation models. arXiv: 2108.07258 2021.
9 Eggmann F, Weiger R, Zitzmann NU, e.a. Implications of large language models such as ChatGPT for dental medicine. J Esthet Restor Dent 2023; 13046.
10 Dave T, Athaluri SA, Singh S. ChatGPT in medicine: an overview of its applications, advantages, limitations, future prospects, and ethical considerations. Front Artif Intell 2023; 6: 1169595.
11 Bahrini A, Khamoshifar M, Abbasimehr H, e.a. ChatGPT: Applications, opportunities, and threats. Systems and Information Engineering Design Symposium 2023; 274-9.
12 Lee EE, Torous J, De Choudhury M, e.a. Artificial intelligence for mental health care: clinical applications, barriers, facilitators, and artificial wisdom. Biol Psychiatry Cogn Neurosci Neuroimaging 2021; 6: 856-64.
13 Dwivedi YK, Kshetri N, Hughes L. ‘So what if ChatGPT wrote it?’ Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy. International Journal of Information Management 2023; 71: 102642.
Authors
Bart van der Meer, gz-psycholoog, NPI Amersfoort (onderdeel van Arkin).
Correspondentie
Bart van der Meer (bmeer@arkin.nl).
Geen strijdige belangen meegedeeld.
Het artikel werd voor publicatie geaccepteerd op 24-11-2023.
Citeren
Tijdschr Psychiatr. 2024;66(3):161-164