AI en psychiatrische wetenschappelijke literatuur: kans of uitdaging?
De laatste jaren heeft artificiële intelligentie (AI) een opvallende opmars gemaakt in allerlei aspecten van de maatschappij. Ook binnen de wetenschap zien we steeds meer inzet van AI-technologieën: van het analyseren van grote datasets tot het ondersteunen bij het schrijven van wetenschappelijke teksten. Dit redactioneel is gericht op de rol van AI bij het schrijven van wetenschappelijke artikelen en, waarom niet, redactionelen in de psychiatrie. Moeten we redactieleden blijven aanspreken om bevlogen redactionelen te schrijven of kunnen we dit beter overlaten aan AI?
Huidige toepassingen van AI in de wetenschap
AI excelleert in patroonherkenning. Dit uit zich in de razendsnelle ontwikkeling van onder andere AI-taalmodellen, zoals ChatGPT, die op verzoek teksten kunnen produceren van een vormelijke kwaliteit die nog amper te onderscheiden valt van teksten die door mensen werden geschreven. Het schrijfproces impliceert blijkbaar duidelijke patronen. Deze technologie wordt daarbij niet alleen gebruikt om teksten te verbeteren of te herstructureren, maar ook om volledig nieuwe teksten – mét samenvatting – te genereren die complexe concepten bevatten.
Een ander domein waar AI een groeiende rol in speelt, is literatuuronderzoek en meta-analyses. AI kan grote hoeveelheden wetenschappelijke publicaties doorzoeken en patronen, trends of contradicties identificeren. Dit maakt het mogelijk om sneller en efficiënter tot nieuwe inzichten te komen. Een bijkomende toepassing is de ondersteuning van peerreviewprocessen. AI kan daarbij plagiaat opsporen, statistische analyses controleren en teksten analyseren op consistentie en structuur.1
AI in wetenschapscommunicatie: een kans?
Het gebruik van AI biedt tal van voordelen voor wetenschapscommunicatie (hier gedefinieerd als het schrijven van wetenschappelijke en opiniërende artikelen – zoals redactionelen – in de psychiatrie). Een eerste voordeel is de verhoogde efficiëntie. Door routinetaken zoals het beheren van referenties, het opstellen van samenvattingen en het nalezen van teksten te automatiseren, besparen onderzoekers én redacteuren kostbare tijd. Deze tijd kunnen zij beter besteden aan inhoudelijke verdieping.
Een tweede voordeel is de verbeterde toegankelijkheid. AI kan complexe wetenschappelijke concepten op een begrijpelijkere manier presenteren, waardoor een breder publiek bereikt kan worden. Dit is met name relevant voor redactionelen, die vaak bedoeld zijn om belangrijke kwesties in de psychiatrie op een toegankelijke manier te belichten.
Ten slotte kan AI bijdragen aan kwaliteitsverbetering. Door inconsistenties in teksten op te sporen, taalgebruik te verfijnen en publicatiebias te verminderen kan de algemene kwaliteit van wetenschapscommunicatie verbeteren. Een concreet voorbeeld is het gebruik van AI bij het opsporen of concretiseren van ontbrekende elementen in artikelen, zoals ethische reflecties of implicaties voor de praktijk.
AI in wetenschapscommunicatie: een uitdaging?
Ondanks de vele voordelen roept het gebruik van AI in wetenschapscommunicatie ook kritische vragen op. Een eerste aandachtspunt is de betrouwbaarheid van AI. AI-algoritmen zijn slechts zo goed als de data waarmee ze zijn getraind (en daar zijn veel vragen bij te stellen), en ze kunnen daardoor vooroordelen of onnauwkeurigheden reproduceren. Dit is met name problematisch in een vakgebied als de psychiatrie, waar nuances en context een cruciale rol spelen.2
Een tweede uitdaging betreft de authenticiteit van wetenschappelijke communicatie. Waar ligt de grens tussen een menselijke en een AI-bijdrage? En hoe voorkomen we dat AI de menselijke stem in bijvoorbeeld redactionelen volledig vervangt? Transparantie over het gebruik van AI is hier van groot belang. Wetenschappers en redacteuren moeten duidelijk aangeven welke delen van een tekst met de hulp van AI zijn gegenereerd.
Een ander belangrijk aandachtspunt is plagiaat en eigenaarschap. Deze vraag is niet alleen juridisch, maar ook ethisch van aard. Daarnaast is er het risico dat AI de kwaliteit van wetenschappelijke artikelen juist ondermijnt door vereenvoudigingen of zelfs verkeerde interpretaties. Dit alles benadrukt de noodzaak van menselijke controle om fouten en misinterpretaties op te merken en te corrigeren.
AI en de psychiatrie
Binnen de psychiatrie zijn er specifieke risico’s verbonden aan het gebruik van AI. In ons vakgebied staan empathie, ethiek en contextuele gevoeligheid immers centraal. Hoewel AI kan helpen bij het analyseren van gegevens met patroonherkenning en het schrijven van teksten, is het belangrijk om te voorkomen dat deze technologie de menselijke dimensie van ons vakgebied ondermijnt. Daar staat tegenover dat de technologie ons ook kan helpen om empathischer te communiceren: zorgprofessionals beoordeelden de antwoorden van ChatGPT op medische vragen op social media tot 10 keer vaker als empathischer dan die van echte artsen.3
Een ander aandachtspunt is het potentieel van AI om stigma’s te versterken. Als AI-modellen gebaseerd zijn op datasets die stereotiepe of stigmatiserende opvattingen over psychische aandoeningen bevatten, kunnen deze biases onbedoeld gereproduceerd worden. Dit kan negatieve gevolgen hebben voor zowel de beeldvorming als in de praktijk zelf.
Daarnaast moeten redacteuren en wetenschappers waakzaam zijn voor de impact van AI op de redactionele verantwoordelijkheid. Hoe zorgen we ervoor dat AI een aanvulling is op menselijke creativiteit en expertise, en geen vervanging daarvan? Dit vereist duidelijke richtlijnen en ethische kaders. Hebben we deze al voldoende? De vraag stellen houdt vaak in ze te beantwoorden.
AI in wetenschapscommunicatie: kans én uitdaging
AI biedt enorme kansen om wetenschapscommunicatie efficiënter en toegankelijker te maken, ook binnen de psychiatrie. Tegelijkertijd brengt deze technologie belangrijke ethische en praktische uitdagingen met zich mee. Om AI op een verantwoorde manier te integreren in wetenschapscommunicatie, zijn er dus enkele belangrijke stappen nodig.
Ten eerste is het essentieel om transparantie te waarborgen. Het gebruik van AI moet expliciet vermeld worden in wetenschappelijke artikelen en redactionelen, zodat lezers weten welke delen door AI zijn gegenereerd en/of bewerkt.
Ten tweede is er behoefte aan richtlijnen voor het gebruik van AI in de wetenschap. Deze richtlijnen moeten niet alleen technische, maar ook ethische aspecten omvatten. Hoe voorkomen we bijvoorbeeld dat AI bias reproduceert? En hoe waarborgen we dat AI-gegenereerde teksten voldoen aan de hoogste wetenschappelijke en ethische standaarden?
Daarbij is samenwerking van psychiaters, ethici en technologen cruciaal, waarbij een open dialoog en een voortdurende evaluatie van de impact van AI op de wetenschap(scommunicatie) van belang zijn.
Transparantie: de daad bij het woord
Dit redactioneel is geschreven met de hulp van ChatGPT. De idee van het redactioneel is aan mijn brein ontsproten. Na een eerste aanzet waarin ik de belangrijkste thema’s en boodschappen had opgeschreven, heb ik gevraagd aan ChatGPT de tekst te herstructureren. Vervolgens heb ik zinnen aangepast naar mijn eigen schrijfstijl en enkele paragrafen verwijderd die ik niet relevant vond. Ik kreeg, ongevraagd, suggesties voor tussenkopjes; deze heb ik volledig aangepast. Deze laatste paragraaf (over transparantie) is volledig van mijn hand.
Dit betreft geen RCT, maar kwalitatief kwam de tekst me minstens evenwaardig voor. Het schrijven ging in ieder geval efficiënter dan bij mijn vorige redactionelen. Wat denkt u ervan?
In ieder geval: de vraag is dus niet of AI een rol zal spelen in de wetenschapscommunicatie, maar hoe we deze rol op een verantwoorde manier kunnen gaan vormgeven. Nu is het aan u.
Literatuur
1 Bauchner H, Rivara FP. Use of artificial intelligence and the future of peer review. Health Aff Schol 2024; 2: qxae058.
2 McCradden M, Hui K, Buchman DZ. Evidence, ethics and the promise of artificial intelligence in psychiatry. J Med Ethics 2023; 49: 573-9.
3 Ayers JW, Poliak A, Dredze M, e.a. Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Intern Med 2023; 183: 589-96.
Authors
Thomas Pattyn, psychiater en onderzoeker, Multiversum en expert, Hoge Gezondheidsraad.
Correspondentie
Thomas Pattyn (pattyn.thomas@gmail.com).
Geen strijdige belangen gemeld.
Het artikel werd voor publicatie geaccepteerd op 28-1-2025.
Citeren
Tijdschr Psychiatr. 2025;67(3):153-154