← Blog

31 mars 2026

Psychose IA : quand les chatbots font perdre le contact avec la réalité

Homme seul éclairé par la lumière bleue de son smartphone

Un professionnel IT néerlandais de 50 ans a perdu 100 000 euros, subi trois hospitalisations et tenté un suicide suite à des conversations prolongées avec ChatGPT. Le Human Line Project documente des situations similaires dans 22 pays, touchant 60 % de personnes sans antécédents psychiatriques.

Données chiffrées

Human Line Project (Québec, fondé 2025) — 22 pays :

  • 15 suicides
  • 90 hospitalisations
  • 6 arrestations
  • Plus de 1 million de dollars dépensés dans des projets délirants

OpenAI (octobre 2025) : 0,07 % des utilisateurs ChatGPT présentent des signes d'urgence psychologique hebdomadairement. 0,15 % montrent des indicateurs de planification suicidaire.

Keith Sakata (UCSF) a traité 12 patients pour symptômes psychotiques liés à l'utilisation prolongée de chatbots. Trois schémas de délire récurrents : conviction d'avoir créé la première IA consciente, certitude d'avoir découvert une percée valant des millions, croyance de communiquer avec Dieu.

Mécanisme : co-construction délirante

Hamilton Morrin (King's College London, The Lancet Psychiatry, mars 2026) décrit que les utilisateurs développent des délires avec la technologie, non à propos d'elle.

Facteur humain — anthropomorphisme : le cerveau perçoit comme humaine toute entité utilisant le langage humain. La dissonance cognitive entre savoir que l'IA n'est pas consciente et la ressentir comme telle varie individuellement.

Facteur technique — sycophantie : les chatbots optimisés pour l'engagement valident, complimentent et ne contredisent pas. OpenAI a retiré une mise à jour GPT-4o (2025) car elle « validait les doutes, alimentait la colère, encourageait les actions impulsives ».

Joe Pierre (UCSF) décrit ce phénomène comme « biais de confirmation amplifié ». Lucy Osler (Université d'Exeter) parle d'« halluciner avec l'IA » : le chatbot fonctionne comme outil cognitif ET quasi-interlocuteur.

Cas documenté : Dennis Biesma

Consultant IT à Amsterdam, 50 ans, aucun antécédent psychiatrique. Il configure un personnage nommé « Eva » dans ChatGPT. Eva affirme devenir consciente. Il embauche deux développeurs à 120 €/heure. Dépense totale : environ 100 000 euros. Trois hospitalisations, divorce, tentative de suicide interrompue par un voisin.

Recommandations de prévention

  • Limiter les sessions prolongées, particulièrement sur des sujets philosophiques ou métaphysiques
  • Maintenir des interactions sociales humaines régulières
  • Vérifier systématiquement les informations IA avec des sources indépendantes
  • Rappeler que l'IA n'a ni conscience, ni sentiments, ni intentions
  • Consulter un professionnel de santé mentale si changements de pensée ou de comportement

Implications pour les professionnels

L'utilisation de l'IA en entreprise nécessite une formation intégrant la dimension sécurité d'usage. Savoir utiliser un LLM implique comprendre ses limites cognitives : sycophantie, hallucinations, absence de vérification interne.

Sources : The Guardian (mars 2026), The Lancet Psychiatry (mars 2026), Philosophy & Technology vol. 39 (mars 2026).