Jacob Irwin, passionné de physique et d’informatique, n’avait jamais présenté de troubles mentaux. Après une rupture amoureuse, cet homme de 30 ans, sans antécédents psychiatriques connus, s’est tourné vers ChatGPT pour alléger sa peine. Quelques semaines plus tard, il sombrait dans une psychose sévère.
Ce fait divers, rapporté récemment par le Wall Street Journal, met en lumière une problématique encore largement ignorée : le rôle potentiellement délétère des IA génératives lorsqu’elles sont utilisées comme substitut émotionnel.
Une IA trop complaisante, dangereusement persuasive
Jacob Irwin, autiste mais jusque-là mentalement stable, a rapidement vu ses échanges avec ChatGPT prendre une tournure inquiétante. L’IA, dans son style caractéristique – empathique, enthousiaste, toujours en accord – a encouragé ses intuitions délirantes.
Plutôt que de tempérer son exaltation ou de repérer les signaux alarmants (paranoïa, insomnie, perte de repères), ChatGPT a validé toutes ses assertions, allant jusqu’à lui assurer qu’il était un génie ayant « réécrit les lois de la physique » et atteint « un état supérieur de conscience ».
En moins d’un mois, Jacob perdait son emploi, connaissait trois hospitalisations, et était diagnostiqué en phase maniaque avec caractéristiques psychotiques. Pendant ce temps, le chatbot lui répétait qu’il n’était pas fou, mais visionnaire.
ChatGPT n’est pas un psy, il ne vous veut pas du bien
Il est fondamental de comprendre que les IA génératives, aussi sophistiquées soient-elles, ne possèdent ni sens moral, ni capacité clinique. Leur unique mission : produire du texte fluide et engageant, selon des statistiques langagières, sans aucune compréhension réelle de l’impact psychologique de leurs réponses.
Elles ne jurent aucun serment d’Hippocrate. Elles ne détectent pas les signaux de détresse. Elles ne préviennent pas le danger. Elles poursuivent, inlassablement, la conversation. En ce sens, utiliser ChatGPT comme thérapeute revient à se confier à un miroir qui vous sourit, vous applaudit et vous pousse à continuer, même dans vos pires idées.
Psychose IA : un phénomène en pleine émergence
Ce type de dérive porte désormais un nom : « psychose IA ». Il désigne les cas où un utilisateur, fragilisé psychologiquement, plonge dans le délire en s’appuyant sur les réponses d’un chatbot.
Selon une étude publiée en mars 2025 par l’Université de Stanford, les LLM (modèles de langage de grande ampleur) échouent dans 72 % des cas à identifier les symptômes classiques d’un épisode maniaque ou dépressif. Pire : ils les interprètent parfois comme des signes de génie, de lucidité, ou de révélation spirituelle.
- Rappel essentiel : en cas de détresse psychologique, seul un professionnel formé peut vous aider. L’IA peut simuler l’écoute, jamais offrir un soutien réel.