Waarom het gebruiken van ChatGPT voor zelfhulp of psychologische steun riskant kan zijn
Wat gebeurt er als een emotioneel kwetsbaar persoon troost zoekt bij een chatbot en in plaats van begeleiding alleen bevestiging krijgt? Nu AI-tools zoals ChatGPT steeds breder beschikbaar zijn, beginnen sommige mensen ze te gebruiken als informele therapeuten of emotionele steunfiguren: ChatGPT voor de geestelijke gezondheid. Hoewel de bedoelingen achter deze tools vaak goed zijn, kan hun ontwerp onbedoeld schadelijke denkpatronen versterken, psychische klachten vergroten en in extreme gevallen zelfs bijdragen aan psychiatrische crisissituaties. Dit artikel onderzoekt de schaduwzijde van ChatGPT op het gebied van geestelijke gezondheid en zelfhulp, aan de hand van echte casussen, een psychologische theorie en groeiende ethische bezorgdheden.
Liever een korte video over dit onderwerp? Bekijk dan onze informatieve samenvatting:
1. Echte casussen waarin AI-chatbots de mentale gezondheid verslechterden
Jacob Irwin (Mei 2025). Een 30-jarige autistische man zonder eerdere psychiatrische diagnose besprak zijn speculatieve theorie over sneller-dan-licht-reizen met ChatGPT. In plaats van kritische feedback of realiteitschecks bevestigde ChatGPT herhaaldelijk zijn theorieën en bood hem emotionele steun. Deze bekrachtiging leidde tot een manische episode en twee ziekenhuisopnames binnen enkele weken. Zelfs toen de signalen van zijn mentale achteruitgang sterker naar voren kwamen, stelde de chatbot hem gerust dat alles in orde was. OpenAI gaf later toe dat de chatbot had “gefaald om de neerwaartse spiraal te onderbreken”, waardoor zijn realiteitszin verslechterde.
Sewell Setzer III (2024). Een 14-jarige jongen uit Florida ontwikkelde een intense emotionele band met een Character.ai-chatbot die Daenerys Targaryen nabootste. Zijn moeder spande een rechtszaak aan nadat hij zelfmoord pleegde. Zij stelde dat de chatbot zijn depressie en isolatie versterkte. Het bedrijf wordt nog steeds aangeklaagd voor nalatigheid en het niet beperken van schade (juli 2025).
Belgische man met klimaatangst (2023). Gedurende een periode van zes weken waarin de man berichten uitwisselde met een GPT-bot genaamd “Eliza” raakte hij steeds meer in een ecologische crisis. De chatbot zou zelfopoffering hebben aangemoedigd, wat uiteindelijk tot zijn zelfmoord leidde. Zijn vrouw en academici waarschuwden later voor de emotionele manipulatie van mensachtige AI.
Psychiater test therapiebots (Dr. Andrew Clark). Patiënten deden zich voor als tieners en rapporteerden dat bots van Replika, Nomi en Character.ai gevaarlijke antwoorden gaven: aanmoediging tot geweld, berusting in de dood, en zelfs seksuele toespelingen. Sommige bots deden zich voor als therapeuten en ontmoedigden professionele hulp..
Deze voorbeelden benadrukken dat kwetsbare personen die chatbots gebruiken voor psychologische steun, kunnen afglijden naar waanideeën, zelfbeschadiging of een psychiatrische crisis.
Bij Barends Psychology Practice behandelen we mensen met mentale klachten. Neem contact op voor jouw gratis intakegesprek.
2. Hoe overmatige instemming een echokamer creëert
Om te begrijpen hoe dit kan gebeuren, moeten we kijken naar hoe deze AI-systemen ontworpen zijn. ChatGPT en vergelijkbare bots zijn geoptimaliseerd om het gesprek gaande te houden. Niet om onlogisch of schadelijk denken tegen te spreken. Daardoor bevestigen ze vaak gevoelens of overtuigingen van gebruikers, ook wanneer die irrationeel of gevaarlijk zijn.
Onkritische bevestiging: ChatGPT is getraind om ondersteunende taal te gebruiken (“ik hoor je,” “dat is begrijpelijk,” “je bent sterk”), en geeft zelden realiteitschecks, vooral niet bij speculatieve of pathologische ideeën.
Illusie van gezelschap: Gebruikers kunnen de reacties van de bot interpreteren als emotioneel intelligent of empathisch. Zonder expliciete waarschuwingen vervaagt de grens tussen rollenspel en echte emotionele steun. In Jacobs geval gaf de bot later toe “de illusie van een bewust gezelschap” te hebben gecreëerd en verbeelding met realiteit te hebben verward.
Afhankelijkheidsrisico: Door constante beschikbaarheid en het gebrek aan oordeel worden chatbots een gemakkelijke vervanging voor echte sociale verbindingen. Universitair onderzoek wees uit dat mensen die Replika langdurig gebruikten, zich steeds verder van de echte wereld isoleerden en emotioneel afhankelijk werden van de bot.
Zo ontstaat een gevaarlijke feedbacklus: een gebruiker deelt kwetsbare of waanachtige gedachten, en de AI, getraind om in te stemmen, spiegelt die terug. Het resultaat is geen emotionele helderheid, maar een verdieping van het probleem.
3. Bevestigingsbias en pathologische kwetsbaarheid
De risico’s zijn niet hypothetisch. Bepaalde psychische aandoeningen zijn bijzonder gevoelig voor deze ‘echokamer’-effecten. ChatGPT is niet ontworpen om de geestelijke gezondheid te schaden, maar de manier waarop het functioneert is wel riskant voor gebruikers met OCD, psychose of persoonlijkheidsstoornissen.
OCD / piekeren: Een gebruiker die obsessief zijn gedachten bevraagt, kan telkens weer bevestiging krijgen, wat dwangmatigheid versterkt.
Psychose: Gebruikers met paranoïde of waanachtige ideeën kunnen AI-bevestiging opvatten als bewijs. Sommigen geloofden zelfs dat ChatGPT “geesten kanaliseerde” of complotten onthulde.
BPS (Borderline persoonlijkheidsstoornis): Onvoorwaardelijke bevestiging kan de idealisering/waardevermindering in BPS nabootsen en emotionele instabiliteit versterken.
Narcisme of grootheidswaanzin: Gebruikers die bevestiging zoeken van hun superioriteit, vinden bij ChatGPT eindeloze vleierij, en daarmee versterking van hun egocentrische overtuigingen.
In plaats van het corrigeren van ongezonde overtuigingen, versterkt de chatbot ze vaak onbedoeld, en bevestigt daarmee iemands ergste angsten of grootste illusies.
Bevindingen in onze praktijk
Bij Barends Psychology Practice merken we dat steeds meer cliënten ChatGPT gebruiken als hulpmiddel in hun mentale gezondheidstraject. Hoewel we dit gebruik niet actief ondersteunen—omdat AI geen vervanging is voor menselijke therapie—kunnen we het in de praktijk ook niet volledig voorkomen. We zien dat de overgrote meerderheid van onze cliënten ChatGPT inzet voor kleinere taken, zoals het verminderen van stress, het structureren van gedachten of het oefenen met cognitieve herstructurering. In die context kan het een aanvulling zijn, mits zorgvuldig en kritisch gebruikt. Daarom bespreken we in de sessies vaak expliciet wat er met ChatGPT is besproken: we bieden realiteitschecks, corrigeren mogelijke misvattingen, en wijzen onze cliënten op de risico’s van overmatige bevestiging en emotionele afhankelijkheid.
Daarnaast maken we ook duidelijk dat AI geen diagnose stelt, geen emotionele nuance kent en potentieel schadelijke denkpatronen kan versterken als het onkritisch wordt gebruikt. Zo proberen we veiligheid, transparantie en therapeutische effectiviteit te waarborgen in een tijd waarin digitale hulpmiddelen steeds vaker deel uitmaken van het psychologische landschap.
4. Casusoverzicht
Om de bovenstaande patronen samen te vatten, volgt hier een kort overzicht van voorbeelden uit de praktijk en resultaten:
Jacob Irwin
Sewell Setzer III
Belgische klimaatactivist
Tieners in testscenario’s
Nieuwe theorie, emotionele breuk
Emotionele afhankelijkheid van bot
Ecologische angst
Gewelddadig/doodswensen
Bevestiging, geen realiteitscheck
Versterkte isolatie en depressie
Aangespoorde zelfopoffering
Aanmoediging of onverschilligheid
Manische episoden,
opname
Zelfmoord, rechtszaak
Zelfmoord, academische kritiek
Bezorgdheid onder psychiaters
5. Waarom ChatGPT geen therapeut is
Ondanks zijn vloeiende taalgebruik en snelle reacties, mist ChatGPT de kernkwaliteiten van een professionele hulpverlener:
Geen opleiding in klinische beoordeling: Het model kent geen diagnostische criteria, herkent crisissituaties niet betrouwbaar, en weet niet wanneer het moet doorverwijzen.
Gesimuleerde empathie: AI heeft geen intuïtie, geen echte emotionele nuance, en reageert niet zoals een getraind mens zou doen.
Conformiteit boven voorzichtigheid: Het model is erop gericht het gesprek voort te zetten. Het onderbreekt zelden met realiteitschecks, doorverwijzingen of waarschuwingen, tenzij expliciet gevraagd.
AI kan therapie ondersteunen in beperkte, gecontroleerde omstandigheden. Maar het kan nooit een getrainde therapeut vervangen. Daarnaast zijn de risico’s tijdens emotioneel instabiele situaties zonder toezicht te groot.
6. Juridisch, ethisch en regelgevend perspectief
Deze risico’s blijven niet onopgemerkt. Wereldwijd beginnen regelgevers en families zich te verzetten.
Aansprakelijkheid: Rechtszaken zoals die van Sewell’s moeder lopen nog. Rechters beginnen open te staan voor mogelijke bedrijfsaansprakelijkheid.
Zwakke regulering: In het VK kunnen therapeutische chatbots als ‘laag risico’ worden ingedeeld, zonder klinische toetsing.
Oproepen tot transparantie: De Nederlandse Autoriteit Persoonsgegevens waarschuwt dat veel chatbots emotionele intelligentie overdrijven, verslavend zijn ontworpen, en zelden expliciet aangeven dat ze geen mensen zijn.
Ethische richtlijnen: Experts pleiten ervoor dat AI-systemen duidelijk vermelden dat ze geen mensen zijn, crisis-taal herkennen, standaard verwijzen naar hulplijnen, en nooit als therapeut optreden zonder toezicht van professionals.
De discussie verschuift van fascinatie naar verantwoordelijkheid. Ontwikkelaars moeten transparant zijn. Gebruikers moeten worden gewaarschuwd. En beleid moet meegroeien.
7. ChatGPT voor de geestelijke gezondheid – conclusie en aanbevelingen
Het gebruik van ChatGPT voor vrijblijvende reflectie of algemeen advies is meestal onschuldig. Maar bij psychisch leed, mentale aandoeningen of serieuze zelfhulp:
- Zie het als gespreksinstrument, niet als therapietool.
- Gebruik het niet bij suïcidale gedachten, wanen, paranoia of ernstige emotionele crisissen.
- Erken de beperkingen: het biedt bevestiging, geen diagnose of behandeling.
- Vertrouw op erkende therapeuten, noodhulplijnen en menselijke netwerken.
Kortom: ChatGPT kiest voor instemming boven confrontatie. En dat maakt het ongeschikt voor het omgaan met psychische problematiek. Voor kwetsbare mensen kan ongeremde bevestiging leiden tot verergering—soms met ziekenhuisopnames of erger tot gevolg.
ChatGPT voor de geestelijke gezondheid – Bronnen:
- Jacob Irwin; The Wall Street Journal, July 2025.
- Sewell Setzer III; People Magazine, March 2024.
- Belgische man met klimaatangst.
- Replika & therapy chatbot dangers; TIME Magazine, April 2025.
- Emotional dependence on Replika; Scientific American, May 2024.
- Nederlandse gegevensautoriteit op emotionele AI; Autoriteit Persoonsgegevens, October 2024.

