20/10/2025
À LIRE ABSOLUMENT //
L'IA a beau être très pratique, son usage immodéré peut rapidement s'avérer dangereux.
L'intelligence artificielle est désormais pleinement intégrée à notre quotidien. Qu'il s'agisse de ChatGPT, de Google Gemini ou d'Apple Intelligence, nous serions près de 346 millions d'utilisateurs réguliers d'IA selon une étude du site Digitalsilk. Au Etats-Unis, c'est près de 40% des habitants qui ont déjà utilisé une intelligence artificielle.
Pourtant cette démocratisation très rapide de l'IA suscite toujours de nombreuses questions. De plus en plus d'utilisateurs tendent à remplacer des professionnels de santé par l'usage de l'intelligence artificielle. Une tendance rapidement observée et décriée par le Service National de Santé (NHS) au Royaume-Uni, qui a récemment communiqué pour mettre en garde face à ce phénomène.
Les études réalisées par le NHS mettent notamment en évidence une tendance croissante et inquiétante des utilisateurs d'IA, et principalement de ChatGPT : le fait d'utiliser l'intelligence artificielle en lieu et place d'un thérapeute pour sa santé mentale. Alors que celle-ci est devenue un véritable enjeu de santé publique en France comme dans le reste du monde, le NHS parle même de "thérapie IA" pour qualifier ce phénomène que l'on observe de plus en plus, notamment chez de jeunes adultes et adolescents.
Si les patients comme les professionnels sont souvent assez partagés, soulignant les bons et les mauvais côtés de l'IA pour la santé mentale, le NHS ne l'entend pas de cette oreille. Claire Murdoch, directrice de l'institution au Royaume-Uni, assure que de plus en plus de retours s'avèrent alarmants concernant des consignes données par ChatGPT, souvent fausses et parfois même dangereuses pour les utilisateurs.
Dans le meilleur des cas, l'IA a même tendance à ne jamais contredire les interrogations des utilisateurs et à aller toujours dans leur sens, même lorsque les informations sont erronées.
Le NHS rappelle qu'un chatbot ne devrait jamais remplacer des sources officielles et sérieuses concernant la santé mentale. L'usage grandissant de ChatGPT pour remplacer un thérapeute serait contre-productif et même dangereux dans le sens où l'IA a souvent tendance à fournir des informations erronées.
Une critique que même OpenAI, entreprise responsable de ChatGPT, semble reconnaitre. En août dernier, la firme déclarait notamment vouloir "continuer à améliorer leurs modèles de langage pour reconnaître et répondre aux signes de détresse émotionnelle et mentale afin de conseiller les utilisateurs avec attention ou les guider vers un expert ».
L’internaute, 06/10/2025.