
Dans notre travail clinique et de recherche auprès des adolescents, la vie privée n’est pas une question annexe ; c’est un espace de développement où l’autonomie, l’identité et les limites sont testées en temps réel. L’American Psychological Association (APA) a souligné que le désir d’intimité est normal et sain à l’adolescence, en particulier lorsque les jeunes explorent leur identité, leurs relations et de nouvelles émotions. Lorsque la confidentialité est considérée comme intrinsèquement suspecte, nous avons souvent pour effet d’accroître le secret plutôt que de renforcer le jugement.
Dans le même temps, nous observons un déplacement des lieux où s’exerce cette intimité. Beaucoup d’adolescents traitent désormais leurs questions et leurs émotions dans des conversations avec des chatbots d’IA. Comme le note le Dr Joshua Goodman, « Les conversations avec des chatbots d’IA peuvent donner aux adolescents l’impression d’un espace sûr » pour aborder des sujets qu’ils n’oseraient pas apporter à leurs parents ou à d’autres. En pratique, ce sentiment « d’espace sûr » vient souvent de l’immédiateté, d’une moindre gêne et de l’absence d’inquiétude visible chez l’adulte. L’interface peut paraître calme, non réactive et disponible, surtout pour des adolescents qui s’attendent à de la critique ou au conflit.
Du point de vue du thérapeute, c’est précisément pourquoi nous ne pouvons pas traiter l’usage des chatbots comme une tendance anodine ou une préoccupation uniquement parentale. Nous avons la responsabilité professionnelle de suivre les véritables voies de recherche d’aide des adolescents, y compris numériques, et de nous assurer que ce qui « semble » privé n’est pas confondu avec ce qui est protégé. Si un adolescent utilise un « chatbot pour enfants » comme principal contenant pour la honte, les questions d’identité, les préoccupations sexuelles, les récits de traumatismes ou les pensées d’auto‑agression, alors l’usage du chatbot devient un comportement cliniquement pertinent. Il a sa place dans l’évaluation, la formulation et la planification thérapeutique continue, tout comme nous suivons le sommeil, les relations avec les pairs, l’usage de substances et l’exposition aux réseaux sociaux.
La préoccupation clinique centrale est simple : la sécurité perçue n’est pas la sécurité réelle. La Dre Mary Alvord le dit clairement : « La sécurité perçue n’est pas la sécurité réelle. » Lorsqu’un chatbot paraît validant et discret, les adolescents peuvent supposer qu’il est confidentiel comme une relation thérapeutique est censée l’être. Or, les adolescents emploient souvent le mot « privé » pour signifier « personne ne me jugera », « personne ne se mettra en colère » ou « personne ne rendra la situation gênante ». La protection des données pose d’autres questions : qui peut accéder au contenu, s’il est stocké, s’il est analysé et comment il pourrait être réutilisé.
C’est ici que notre rôle clinique n’est pas d’effrayer les adolescents, mais d’éclairer la réalité. La psychoéducation sur la confidentialité n’est pas une leçon parentale ; c’est une intervention thérapeutique. De la même manière que nous aidons les adolescents à construire des modèles mentaux du consentement, de la régulation émotionnelle, du risque et des relations, nous pouvons les aider à bâtir un modèle mental de la divulgation numérique. Un chatbot peut être confortable sur le plan émotionnel tout en restant non confidentiel sur le plan structurel. Une interface peut sembler intime sans offrir les protections que nous associons aux relations humaines privées.
Il est important de rappeler que la tâche du thérapeute n’est pas seulement de mettre en garde ; il s’agit aussi de comprendre la fonction que sert le chatbot. En séance, nous pouvons demander : Quelle plateforme utilises‑tu ? À quels moments y recours‑tu ? Qu’en attends‑tu réconfort, conseils, distraction, validation, « permission », rassurance ? Comment te sens‑tu ensuite, soulagé, plus calme, plus en détresse, plus confus, plus dépendant de la rassurance ? Ces questions nous aident à évaluer si le chatbot soutient l’adaptation ou, insidieusement, renforce l’évitement, la rumination ou l’isolement. Elles nous aident aussi à repérer un schéma fréquent à l’adolescence : le jeune ne choisit pas nécessairement un chatbot plutôt que des personnes ; il le choisit plutôt pour éviter un jugement anticipé.
Parce que nous avons une obligation de protection, nous avons aussi la responsabilité de nommer explicitement « l’écart de confidentialité » : nombre d’adolescents ignorent ce qu’il advient de leurs données. Ils peuvent supposer que, parce que l’interaction est en tête‑à‑tête et « donne une impression de bienveillance », elle est privée au même titre qu’un cabinet de clinicien. Notre rôle est de rendre cette dimension invisible plus concrète, avec douceur, concrètement et de façon répétée, afin que les adolescents puissent faire des choix éclairés plutôt que de s’en remettre à des suppositions dictées par l’émotion. Cela est particulièrement important chez les plus jeunes utilisateurs et dans les versions « enfant » des chatbots, où la conception peut involontairement amplifier le sentiment de sécurité alors même que la compréhension des pratiques de données est encore en développement.
Une approche efficace consiste à traduire la confidentialité en un exercice de développement de compétences plutôt qu’en un avertissement moral. En pratique, nous pouvons guider les adolescents pour trier ce qu’ils pourraient partager avec un chatbot en catégories claires : contenus à faible enjeu (aide aux devoirs, loisirs, questions neutres), éléments personnellement identifiants (nom complet, établissement scolaire, adresse, numéro de téléphone, identifiants de comptes) et divulgations hautement sensibles (contenu sexuel, pensées d’auto‑agression, récits de traumatismes, conflits familiaux, captures d’écran de messages privés, ainsi que données médicales ou de santé mentale).
L’objectif n’est pas d’interdire la curiosité ni de culpabiliser les jeunes lorsqu’ils partagent trop. L’objectif est de développer le discernement : quels sujets peuvent un environnement moins protecteur, et quels sujets méritent un canal plus sûr, adultes de confiance, cliniciens, ou dispositifs de crise si nécessaire. À partir de là, nous pouvons enseigner une règle pratique réellement utilisable par les adolescents : plus les détails sont précis et permettent d’identifier la personne, plus le risque potentiel est élevé si le contenu est stocké, mal compris, partagé ou consulté ultérieurement.
Nous pouvons également renforcer ce que la psychologie du développement nous apprend déjà que les adolescents exercent : la « pensée orientée vers le soi futur ». Nous pouvons demander : Comment te sentirais‑tu si un parent, un pair, ton établissement scolaire ou un futur partenaire voyait ceci ? Voudrais‑tu encore que cela soit écrit quelque part ? Pourrait‑on être mal interprété hors contexte? Cette réflexion prospective est adaptée au développement, car la capacité d’anticipation et l’évaluation du risque sont encore en cours de consolidation à l’adolescence. Pratiquée régulièrement, elle transforme la confidentialité d’une valeur abstraite en une habitude décisionnelle concrète.
Une réflexion éthique s’impose, car l’enjeu ne relève pas uniquement du comportement des adolescents, mais aussi de la conception des systèmes et de la responsabilité des adultes. Les jeunes et leurs aidants ont droit à des explications transparentes sur ce que les chatbots peuvent ou ne peuvent pas promettre, en particulier lorsque l’interface paraît intime. En tant que cliniciens, nous ne pouvons pas externaliser le jugement Clinique, ni la protection des divulgations vulnérables, à des systèmes dépourvus de responsabilité humaine et d’éthique professionnelle. Il nous faut toutefois tenir la complexité : certains adolescents ont un accès limité à des adultes réactifs, et les chatbots peuvent servir de pont temporaire.
Notre responsabilité, dès lors, n’est ni d’accorder une approbation générale ni de prononcer des interdictions générales. Elle consiste à rester au plus près de la vie réelle des adolescents, à interroger l’usage des chatbots sans culpabiliser, à clarifier l’écart de confidentialité avec des repères concrets et à protéger le développement de l’autonomie du jeune par une prise de décision éclairée plutôt que par le secret. Ce faisant, nous soutenons la vie privée dans son acception la plus complète : non seulement l’expérience émotionnelle de sécurité, mais aussi les protections informationnelles qui rendent cette sécurité réelle.
