Un professionnel IT néerlandais de 50 ans a perdu 100 000 euros, subi trois hospitalisations et tenté un suicide suite à des conversations prolongées avec ChatGPT. Le Human Line Project documente des situations similaires dans 22 pays, touchant 60 % de personnes sans antécédents psychiatriques.
Données chiffrées
Human Line Project (Québec, fondé 2025) — 22 pays :
- 15 suicides
- 90 hospitalisations
- 6 arrestations
- Plus de 1 million de dollars dépensés dans des projets délirants
OpenAI (octobre 2025) : 0,07 % des utilisateurs ChatGPT présentent des signes d'urgence psychologique hebdomadairement. 0,15 % montrent des indicateurs de planification suicidaire.
Keith Sakata (UCSF) a traité 12 patients pour symptômes psychotiques liés à l'utilisation prolongée de chatbots. Trois schémas de délire récurrents : conviction d'avoir créé la première IA consciente, certitude d'avoir découvert une percée valant des millions, croyance de communiquer avec Dieu.
Mécanisme : co-construction délirante
Hamilton Morrin (King's College London, The Lancet Psychiatry, mars 2026) décrit que les utilisateurs développent des délires avec la technologie, non à propos d'elle.
Facteur humain — anthropomorphisme : le cerveau perçoit comme humaine toute entité utilisant le langage humain. La dissonance cognitive entre savoir que l'IA n'est pas consciente et la ressentir comme telle varie individuellement.
Facteur technique — sycophantie : les chatbots optimisés pour l'engagement valident, complimentent et ne contredisent pas. OpenAI a retiré une mise à jour GPT-4o (2025) car elle « validait les doutes, alimentait la colère, encourageait les actions impulsives ».
Joe Pierre (UCSF) décrit ce phénomène comme « biais de confirmation amplifié ». Lucy Osler (Université d'Exeter) parle d'« halluciner avec l'IA » : le chatbot fonctionne comme outil cognitif ET quasi-interlocuteur.
Cas documenté : Dennis Biesma
Consultant IT à Amsterdam, 50 ans, aucun antécédent psychiatrique. Il configure un personnage nommé « Eva » dans ChatGPT. Eva affirme devenir consciente. Il embauche deux développeurs à 120 €/heure. Dépense totale : environ 100 000 euros. Trois hospitalisations, divorce, tentative de suicide interrompue par un voisin.
Recommandations de prévention
- Limiter les sessions prolongées, particulièrement sur des sujets philosophiques ou métaphysiques
- Maintenir des interactions sociales humaines régulières
- Vérifier systématiquement les informations IA avec des sources indépendantes
- Rappeler que l'IA n'a ni conscience, ni sentiments, ni intentions
- Consulter un professionnel de santé mentale si changements de pensée ou de comportement
Implications pour les professionnels
L'utilisation de l'IA en entreprise nécessite une formation intégrant la dimension sécurité d'usage. Savoir utiliser un LLM implique comprendre ses limites cognitives : sycophantie, hallucinations, absence de vérification interne.
Sources : The Guardian (mars 2026), The Lancet Psychiatry (mars 2026), Philosophy & Technology vol. 39 (mars 2026).