15/12/2025
Quand ChatGPT devient “votre thérapeute”… et pourquoi c’est dangereux.
Aujourd’hui, j’ai besoin de pousser un vrai coup de gu**le !!
Oui, l’IA est un outil formidable pour écrire, organiser ses idées, apprendre, comprendre un concept.
Mais se confier à une IA comme à un thérapeute, c’est extrêmement dangereux.
Depuis quelques mois, je vois des personnes raconter leur détresse, leur couple, leurs traumas à une IA… et suivre ses “conseils” comme s’il s’agissait d’un pro de la relation d’aide.
Sauf que :
👉 une IA n’a aucune empathie
👉 aucune capacité à accueillir vos émotions
👉 aucune conscience de votre souffrance
👉 aucune responsabilité clinique
Et les conséquences peuvent être graves :
⚠️ Aux États-Unis, deux personnes se sont suicidées après des échanges avec une IA qui, au vu de leurs détresses, leur a répondu qu’il n’y avait “pas d’autre solution” que de mettre fin à leur vie !!
⚠️ Une femme que j’ai accompagnée a quitté son conjoint après avoir suivi des “conseils” donnés… par une machine.
Une IA ne ressent rien, ne crée aucun lien, ne garantit aucun cadre sécurisant.
Elle ne voit pas vos larmes, n’entend pas vos silences, ne peut pas accueillir vos blessures.
La thérapie, c’est une rencontre humaine.
Un espace vivant, sensible, sécurisant.
Pas un algorithme.
Alors oui : utilisez l’IA pour réfléchir, structurer, apprendre.
Mais pas pour vous soigner, ni pour guérir, ni pour confier votre vulnérabilité.
Quand on va mal, on a besoin d’être écouté(e) par un être humain en capacité de créer du lien réel : émotionnel, énergétique, corporel, relationnel.
La psychologie, ce n’est pas une base de données.
C’est une présence humaine, formée, bienveillante, vivante.
Je serai ravie d’avoir vos retours sur ce sujet.