Près d'un jeune sur deux en Europe a utilisé des chatbots d'IA pour aborder des sujets intimes ou personnels, la technologie servant de plus en plus de source de soutien émotionnel, selon une enquête Ipsos BVA publiée mardi 5 mai.
Parmi les 3 800 personnes interrogées, 51 % ont déclaré qu'il était « facile » d'évoquer des problèmes de santé mentale et des questions personnelles avec un chatbot. Seuls 49 % en disaient autant des professionnels de santé, et 37 % des psychologues.
Les proches arrivent en tête de liste, avec 68 % des personnes estimant qu'il est facile d'aborder leurs problèmes avec des amis, et 61 % avec leurs parents.
L'enquête, commandée par la CNIL, autorité française de protection de la vie privée, et l'assureur Groupe VYV, a été réalisée auprès de personnes âgées de 11 à 25 ans en France, en Allemagne, en Suède et en Irlande début 2026.
Les résultats mettent en lumière les préoccupations croissantes concernant la santé mentale des jeunes. Environ 28 % des répondants ont atteint le seuil de suspicion d'un trouble anxieux généralisé, selon l'enquête.
Environ 90 % des personnes interrogées avaient déjà utilisé des outils d'intelligence artificielle, beaucoup citant leur disponibilité permanente et leur absence de jugement. Plus de trois utilisateurs sur cinq décrivent l'IA comme un « conseiller de vie » ou un « confident ».
Toutefois, les inquiétudes quant à l'impact psychologique des outils d'IA ont également grandi au cours de l'année écoulée, et des experts ont mis en garde contre les limites de l'IA dans la détection des émotions humaines et la fourniture sécurisée d'un soutien émotionnel.
Plus tôt cette année, la famille d'un homme de Floride a poursuivi Google en justice, alléguant que son chatbot d'IA Gemini avait contribué à sa paranoïa et à son suicide.
Les résultats de l'enquête n'ont pas constitué une surprise, a déclaré Ludwig Franke Föyen, psychologue et chercheur en santé numérique à l'Institut Karolinska de Stockholm.
Les grands modèles de langage actuels sont capables de produire des réponses de haute qualité, a indiqué Franke Föyen à Reuters, ajoutant que ses recherches suggèrent que même des professionnels agréés pourraient avoir du mal à distinguer les conseils générés par l'IA de ceux d'experts humains.
Mais il a mis en garde contre le fait de s'appuyer uniquement sur des chatbots pour le soutien en santé mentale, affirmant que les systèmes d'IA à usage général étaient conçus pour favoriser l'engagement et que les objectifs des entreprises pourraient ne pas correspondre aux besoins en matière de santé mentale.
« L'IA peut offrir des informations et un soutien, mais elle ne devrait pas remplacer les relations humaines ni les soins professionnels », a déclaré Franke Föyen.
« Si quelqu'un se tourne vers un chatbot plutôt que de parler à un parent, un ami ou un professionnel de la santé mentale, c'est préoccupant. Nous ne voulons pas que la technologie fasse se sentir les gens encore plus seuls. » – Rappler.com


