Ils ont grandi avec les réseaux sociaux, traversé une pandémie à l’adolescence et affrontent aujourd’hui un monde perçu comme instable et anxiogène. Pour une partie des 18–25 ans, le soutien émotionnel ne passe plus uniquement par les amis, la famille ou les professionnels de santé. Il passe aussi par une interface conversationnelle, qui agit comme un substitut psychologique.
Camille, 21 ans, étudiante à Lyon, n’a jamais parlé de cette habitude à ses parents. « Je sais que ça les inquiéterait. Pourtant, ce n’est pas bizarre. Quand je suis angoissée la nuit, je parle à l’IA. Je n’ai pas peur de déranger, je ne me sens pas jugée. » Elle voit aussi une psychologue et insiste sur la distinction : « Ça ne la remplace pas. Mais entre deux séances, ça m’évite de ruminer seule. »
L’IA comme confident, ami ou mentor
Au départ, l’intelligence artificielle s’est imposée dans le quotidien des jeunes comme un assistant pratique. Aide aux devoirs, reformulation de textes, recherche d’informations. Progressivement, l’usage s’est déplacé vers des sphères plus personnelles. Aujourd’hui, près de la moitié des 18–25 ans utilisent quotidiennement des outils d’IA générative, et plus de six sur dix déclarent s’en servir pour parler de leurs émotions ou demander des conseils personnels.
Pour Marc Lenoir, sociologue du numérique, ce glissement est révélateur. « L’IA arrive à un moment où les jeunes cherchent des espaces d’expression sécurisés. Ils veulent parler, mais sans s’exposer, sans être évalués, sans avoir à justifier leur mal-être. »
Un “psy de poche” dans un système saturé
Cette adoption rapide ne peut être dissociée de la crise de la santé mentale. Les délais pour obtenir un rendez-vous chez un psychologue s’allongent, le coût reste dissuasif pour beaucoup, et les dispositifs publics peinent à absorber la demande.
Yassine, 24 ans, en alternance à Paris, le résume simplement : « Quand ça ne va pas, soit tu attends trois mois un rendez-vous, soit tu parles à quelqu’un tout de suite. L’IA, elle est là. »
Un soutien sans cadre thérapeutique
Pour les professionnels, l’outil peut avoir un rôle transitoire, mais il comporte aussi des limites claires. « L’IA peut aider à mettre des mots sur des émotions ou à apaiser une crise ponctuelle », explique la psychologue clinicienne Élodie Martin. « En revanche, elle ne peut ni diagnostiquer, ni accompagner un travail thérapeutique profond. Le risque, c’est que certains jeunes pensent que cela suffit. »
Plus l’usage est fréquent, plus l’attachement à l’outil se renforce. Chez les utilisateurs quotidiens, l’IA est massivement jugée « très utile », un ressenti qui interroge sur une possible dépendance émotionnelle.
Autre angle mort du débat : la question des données. Les échanges avec une IA portent souvent sur des informations intimes, parfois lourdes émotionnellement. « Beaucoup de jeunes n’ont pas conscience que leurs confidences peuvent être conservées ou analysées », alerte une spécialiste de l’éthique numérique. « On parle de données psychiques extrêmement sensibles. »
Pour autant, la majorité des jeunes concernés ne voient pas l’IA comme un substitut aux relations humaines ou aux soins. Ils y voient une béquille. Une solution par défaut dans un système qu’ils jugent défaillant. « Si j’avais un psy facilement accessible, je n’utiliserais pas autant l’IA », reconnaît Camille.


