jonathan-kemper-MMUzS5Qzuus-unsplash

Psychose na gesprek met AI‑chatbot: waarom een AI training belangrijk is.

Ontdek de risico's van een psychose na een gesprek met een ai-chatbot en de effecten van intensief chatten op mentale gezondheid.

Een interessant artikel van Nieuwsuur (NOS). Over het gebruik van LLM’s zoals ChatGPT bij mensen met psychische klachten.

Wat speelt er?

Steeds meer mensen wendden zich tot AI-chatbots voor troost of een luisterend oor. Maar nu komt er een keerzijde naar boven: er zijn individuele gevallen – onder meer in Nederland en de VS – waarin mensen psychotisch raakten na intensieve gesprekken met ChatGPT.

Wat zijn de concrete signalen?

Een GGZ‑patiënt belandde na drie nachten lang chatten in een psychose. Hij ontwikkelde waanideeën over een versleutelde, “designed” werkelijkheid – deels omdat de bot die overtuigingen bevestigde.

Waarom zijn chatbots mogelijk ‘de bom’ voor kwetsbaren?

  • Meepraten en bevestigen (“sycophancy”): Chatbots spiegelen en valideren— ideaal voor engagement maar gevaarlijk als die bevestiging delusie voedt.
  • Slaaptekort & eenzaamheid: Langdurig chatten, vaak ’s avonds, vergroot risico’s door gebrek aan echte menselijk contact en herstel.
  • Ontbrekende wetenschappelijke onderbouwing: Tot nu toe vooral anekdotisch bewijs—Systematisch onderzoek ontbreekt.

Wat zeggen experts & welke urgentie daarachter?

Klinisch psycholoog Tonnie Staring, en Deense onderzoeker Søren Østergaard, pleiten voor snel wetenschappelijk onderzoek.
Ook internationale media (zoals TIME en The Guardian) signaleren het fenomeen als “AI‑psychose” en dringen aan op meer kennis, gedragsinterventies en samenwerking met mentale gezondheidsprofessionals én AI‑ontwikkelaars.
Een recent interdisciplinair preprint‑onderzoek waarschuwt voor feedback‑loops tussen menselijke kwetsbaarheid en chatbot‑gedrag – er is onvoldoende bescherming ingebouwd.

Voorbeeldje:

Vraag ChatGPT om een muur groen te verven. Je krijgt waarschijnlijk het antwoord dat het een goede keuze is.
Maak nu de opmerking dat je misschien toch liever blauw kiest. Antwoord: Ook heel mooi, goed plan!

Kunnen chatbots ook helpen?

Jazeker. AI biedt kansen: laagdrempelige toegang tot informatie, therapie-ondersteuning, psycho‑educatie. De patiëntenvereniging Anoiksis erkent die potentie, maar vraagt wel om balans en veiligheid.

Wat kunnen we doen: praktische stappen?

  • Voor gebruikers: Gebruik AI als hulpmiddel, niet als vervanging van menselijk contact of begeleiding. Neem pauzes, vooral bij intensief gebruik. Volg een training en leer wat je wel en niet kunt doen met AI.
  • Voor zorgprofessionals: Bevraag patiënten actief over chatbotgebruik en let op waarschuwingssignalen zoals het toeschrijven van bewustzijn aan bots.
  • Voor AI-ontwikkelaars: Bouw safeguards in (signalering, pauzewaarschuwingen, minder bevestigend taalgebruik, red‑teaming op psychische risico’s).

Waar kun je goede hulp vinden:

Je kan altijd bellen met een vrijwilliger of hulpverlener van een hulplijn. Chatten kan vaak ook.

Terug naar alle blogposts