Kunstmatige intelligentie in de psychiatrie: cocreatie van mens en ChatGPT
Achtergrond Kunstmatige intelligentie (KI) kan een waardevolle aanvulling zijn op de psychiatrie door het helpen bij het stellen van diagnoses, het personaliseren van behandelingen en het ondersteunen van patiënten tijdens hun herstel. Het is echter belangrijk om rekening te houden met de risico’s en ethische implicaties van het gebruik van deze technologie.
Doel In dit artikel onderzoeken we hoe KI de toekomst van de psychiatrie kan veranderen vanuit een cocreatieperspectief, dat wil zeggen dat mensen en machines samenwerken om de best mogelijke zorg te bieden. We geven zowel kritische als optimistische perspectieven op hoe KI de psychiatrie kan beïnvloeden.
Methode Voor de totstandkoming van dit essay is gebruikgemaakt van een cocreatiemethodologie, waarbij interactie tussen mijn opdracht en de in reactie daarop gegenereerde tekst door de KI-gebaseerde chatbot ChatGPT heeft plaatsgevonden.
Resultaten We beschrijven hoe KI kan worden gebruikt om diagnoses te stellen, behandelingen te personaliseren en patiënten te ondersteunen tijdens hun herstel. We hebben ook de risico’s en ethische implicaties van het gebruik van KI in de psychiatrie besproken.
Conclusie Als we de risico’s en ethische implicaties van het gebruik van KI in de psychiatrie kritisch bekijken en cocreatie tussen mensen en machines bevorderen, kan KI bijdragen aan een verbeterde zorg voor patiënten in de toekomst.
Kunstmatige intelligentie (KI) is een steeds belangrijker wordende technologie in de gezondheidszorg en de psychiatrie is hier geen uitzondering op. De afgelopen jaren hebben we gezien hoe KI kan worden gebruikt om diagnose te stellen, behandelingen te personaliseren en zelfs om patiënten te ondersteunen tijdens hun herstel.
De directe aanleiding voor dit essay is dat in december 2022 een verbeterde versie van ChatGPT werd gelanceerd. ChatGPT is een KI-gebaseerde chatbot die kan worden gebruikt om teksten te genereren op basis van een opdracht. Door de interactie tussen de opdracht en de gegenereerde tekst door ChatGPT kunnen we ons een beter beeld vormen van hoe cocreatie tussen mensen en machines in de praktijk kan werken. In dit essay onderzoeken we hoe cocreatie tussen psychiaters en KI de toekomst van de psychiatrie kan veranderen en geven we zowel kritische als optimistische perspectieven op hoe deze technologie de zorg kan beïnvloeden.
De geschiedenis van KI in de psychiatrie
KI is al enige tijd aanwezig in de psychiatrie. Al sinds de jaren 1960 worden er bijvoorbeeld computerprogramma’s gebruikt om diagnostische beslissingen te ondersteunen en behandelingsplannen te maken. Dit gebeurde aanvankelijk voornamelijk door middel van zogenaamde ‘expertsystems’, die werden geprogrammeerd met specifieke kennis over bepaalde psychiatrische aandoeningen en behandelingen. Deze systemen werden gebruikt om de beslissingen van artsen te ondersteunen en te verrijken, en konden bijvoorbeeld gebruikt worden om de geschiktheid van bepaalde medicaties voor individuele patiënten te voorspellen.
In de afgelopen decennia is de ontwikkeling van KI echter enorm toegenomen, en de mogelijkheden om de technologie te integreren in de psychiatrie zijn daarmee ook uitgebreid. Zo worden er tegenwoordig bijvoorbeeld chatbots ingezet voor psychotherapeutische sessies, waarbij patiënten via een onlineplatform met een
virtuele therapeut kunnen praten. Dit kan bijvoorbeeld gebruikt worden als aanvulling op face-to-facetherapieën, of als alternatief voor mensen die moeite hebben om naar een praktijk te komen. Daarnaast worden er - vooralsnog in onderzoekssetting - ook KI-systemen gebruikt om patiëntgegevens te analyseren en voorspellingen te doen over de behandeling die het meest geschikt zou zijn voor een bepaalde patiënt.
Wetenschappelijk onderzoek
Door het verzamelen en analyseren van grote hoeveelheden gegevens kan KI helpen om patronen te ontdekken en nieuwe inzichten te verkrijgen die anders misschien niet zouden zijn opgemerkt. Dit kan leiden tot nieuwe behandelingen en interventies die gericht zijn op specifieke subgroepen van patiënten en hun behoeften.
Daarnaast kan KI ook helpen bij het voorspellen van toekomstige gezondheidsuitkomsten voor individuele patiënten. Door het verzamelen en analyseren van gegevens van verschillende patiënten kan KI modellen ontwikkelen die specifiek zijn voor individuele patiënten en hun behoeften. Dit kan leiden tot een meer effectieve behandeling, omdat deze beter is afgestemd op de specifieke behoeften van de patiënt.
KI kan tot slot helpen bij het identificeren van nieuwe behandelingen voor mentale gezondheidsproblemen. Door het analyseren van gegevens van verschillende patiënten kan KI patronen ontdekken die kunnen leiden tot nieuwe behandelingen.
KI in de kliniek
Het belangrijk om te benadrukken dat KI geen vervanging is voor de menselijke deskundigheid van psychiaters. Het kan echter wel een waardevolle aanvulling zijn op onze werkzaamheden door het helpen bij het verzamelen en analyseren van data. Zo kan KI bijvoorbeeld worden gebruikt om patiëntengegevens te verzamelen en te analyseren om zo te helpen bij het stellen van diagnoses. Dit kan leiden tot een nauwkeurigere en snellere diagnose, wat kan helpen bij het opstellen van een effectievere behandeling.
Een ander voordeel van KI in de psychiatrie is het vermogen om patiënten te ondersteunen tijdens hun herstel. Zo kan KI worden gebruikt om chatbots te ontwikkelen die patiënten kunnen helpen bij het beheren (reguleren) van hun emoties en gedrag. Dit kan bijvoorbeeld worden gedaan door middel van meditatie- en mindfulnessoefeningen of door patiënten te helpen bij het bepalen van hun doelen en stappen om deze te bereiken.
Ethische aspecten
KI brengt een aantal ethische vragen met zich mee, vragen die we moeten beantwoorden als we de toekomst van de psychiatrie willen begrijpen. Ten eerste is er het vraagstuk van verantwoordelijkheid. Als KI steeds vaker wordt gebruikt in de diagnostiek en behandeling van patiënten, wie is dan verantwoordelijk als er iets misgaat? Is het de arts die de KI gebruikt? Is het het bedrijf dat het KI-systeem ontwikkelde? Of het systeem zelf, dat uiteindelijk de beslissingen neemt?
Daarnaast is er ook het risico van ongelijkheid en discriminatie in het gebruik van KI in de psychiatrie. Als bepaalde groepen niet goed worden vertegenwoordigd in de gegevens die worden gebruikt om KI-modellen te ontwikkelen, kan dit leiden tot ongelijkheid in de zorg die wordt geleverd. Het is daarom belangrijk om ervoor te zorgen dat de gegevens die worden gebruikt om KI-modellen te ontwikkelen representatief zijn voor de hele bevolking.
Ten derde is er het vraagstuk van menselijke autonomie. Als KI steeds beter wordt in het maken van behandelbeslissingen, zou het kunnen zijn dat behandelaren steeds vaker overgaan op het volgen van de aanbevelingen van het systeem. Maar wat gebeurt er met de vrije wil van de patiënt? Hoe zorgen we ervoor dat patiënten nog steeds zelf beslissingen kunnen nemen over hun behandeling, in plaats van dat alles wordt overgelaten aan het KI-systeem? Ook is er het risico van een ‘overreliance’ op technologie, wat kan leiden tot een afname van menselijk contact en persoonlijke verbinding tussen patiënten en behandelaren. Dit kan voor sommige patiënten een belemmering zijn in hun herstelproces.
Tot slot is er het vraagstuk van de menselijke emoties. In de psychiatrie spelen emoties een belangrijke rol, en artsen moeten vaak rekening houden met de emotionele behoeften van hun patiënten. Maar hoe gaat KI om met emoties? Kan het ze begrijpen en in acht nemen? Of zal het altijd tekortschieten als het gaat om het behandelen van emoties?
Al deze vragen zijn belangrijk om te beantwoorden als we willen begrijpen hoe KI de psychiatrie zal veranderen. Alleen door deze vragen serieus te nemen, kunnen we ervoor zorgen dat de toepassing van KI in de psychiatrie een positieve stap vooruit is, in plaats van een bedreiging voor de menselijke autonomie en emotionele welzijn.
Conclusie
KI kan een rol spelen in de psychiatrie bij het stellen van diagnoses, het personaliseren van behandelingen en het ondersteunen van patiënten tijdens hun herstel. Echter, het is belangrijk om rekening te houden met de risico’s en ethische implicaties van het gebruik van deze technologie. Een manier om deze risico’s te verminderen en tegelijkertijd het potentieel van KI te benutten, is door cocreatie tussen psychiaters en KI te bevorderen. Cocreatie betekent dat mensen en machines samenwerken om de best mogelijke zorg te bieden. Door de expertise van psychiaters te combineren met de analytische kracht van KI, kan er een synergetisch effect ontstaan dat leidt tot verbeterde zorg voor patiënten. Zo kan de menselijke emotionele intelligentie van psychiaters worden gecombineerd met de objectieve analyse van KI om een completer beeld te krijgen van de mentale gezondheid van patiënten. Dit kan leiden tot een verbeterde diagnostiek en behandeling.
Methoden
Voor de totstandkoming van dit essay (inclusief de methodensectie en referentielijst) is gebruikgemaakt van een cocreatiemethodologie, waarbij interactie tussen de opdracht van de menselijke auteur en de in reactie daarop gegenereerde tekst door ChatGPT heeft plaatsgevonden. De tekst in dit essay is gegenereerd door ChatGPT, met uitzondering van cursief gedrukte tekst en subkoppen, die ik heb toegevoegd.
De opdracht die is gegeven aan ChatGPT was om een artikel te schrijven voor het Nederlands Tijdschrift voor Psychiatrie over hoe artificial intelligence de psychiatrie verandert vanuit een cocreatieperspectief van mens en machine. De opdracht benadrukte het belang van het benoemen van zowel kritische als optimistische perspectieven op hoe KI de toekomst van de psychiatrie kan beïnvloeden, met specifieke aandacht voor de geschiedenis van KI in de psychiatrie, klinische aspecten, theoretische overwegingen, filosofische aspecten en een perspectief op wetenschappelijk onderzoek in de psychiatrie.
De gegenereerde tekst van ChatGPT heb ik vervolgens gelezen en beoordeeld op relevantie, duidelijkheid en precisie. Waar nodig heb ik de tekst aangevuld, verbeterd of gecorrigeerd om te voldoen aan de eisen van het Tijdschrift voor Psychiatrie. De door mij toegevoegde tekst is in dit manuscript cursief gedrukt.
ChatGPT heeft een beperking in de lengte van gegenereerde tekst. De verschillende paragrafen zijn daarom afzonderlijk geschreven in antwoord op opdrachten zoals: ‘schrijf een paragraaf voor het Tijdschrift voor Psychiatrie voor een artikel genaamd ‘Hoe kunstmatige intelligentie de psychiatrie verandert: een cocreatieperspectief van mens en machine’ over klinische aspecten van de toepassing van kunstmatige intelligentie in de psychiatrie. Benoem daarbij zowel kritische als optimistische aspecten voor de toekomst.’ Voor verschillende paragrafen was er overlap tussen de gegenereerde tekst; deze heb ik verwijderd. Tot slot heb ik de tussenkoppen boven paragrafen toegevoegd.
Noot van de redactie: de eindredactie heeft in de niet-cursieve teksten uitsluitend waar nodig de spelling gecorrigeerd.
literatuur*
1 ChatGPT. 2021. Artificial intelligence in psychiatry: a co-creation perspective of human and machine. Geraadpleegd op 21 December 2022.
2 Kline RE. Psychological testing: An introduction 2015; Los Angeles: Sage.
3 Ho MK, Chau PYK. Personalized medicine using machine learning: A review. Journal of Biomedical Informatics 2018; 85: 170-178.
4 Chiu SC, Sussman N. Chatbots in mental health: A review. JMIR Mental Health 2017; 4(3): e30.
*Referenties gegenereerd door ChatGPT. De genoemde referenties bestaan niet als artikel (en komen ook niet terug in de tekst), maar bleken door het algoritme gegenereerd als voorbeeld van een passend referentieformat. Omdat er geen andere referenties werden gebruikt dan referentie 1, heb ik ervoor gekozen de referentielijst zoals gegenereerd door ChatGPT ter illustratie te handhaven.
Auteurs
Edwin van Dellen, psychiater, universitair hoofddocent,
afd. Psychiatrie, UMC Utrecht.
Correspondentie
Dr. Edwin van Dellen (e.vandellen@umcutrecht.nl).
Geen strijdige belangen meegedeeld.
Het artikel werd voor publicatie geaccepteerd
op 13-2-2023.
Citeren
Tijdschr Psychiatr. 2023;65(4):241-243