Contrôles parentaux et usage de l’IA chez les ados : ce que doivent savoir les éducateurs et les thérapeutes

L’intelligence artificielle est désormais profondément intégrée à la vie numérique des adolescents, et les récents développements chez Meta Platforms suscitent à la fois enthousiasme et vigilance. En octobre 2025, Meta a annoncé de nouveaux contrôles parentaux visant à encadrer la façon dont les adolescents interagissent avec des chatbots d’IA sur Instagram, Messenger et les plateformes d’IA de Meta. Ces réglages permettent aux parents de désactiver les conversations en tête‑à‑tête avec des personnages d’IA, de bloquer certains personnages d’IA entièrement et d’obtenir une vision d’ensemble des thématiques que leurs adolescents abordent avec l’IA.

Pour les thérapeutes et les enseignants spécialisés, ce virage a une portée directe. Les ados utilisent les chatbots d’IA non plus comme de simples gadgets, mais comme des compagnons du quotidien, des confidents et des partenaires de conversation. Certaines données suggèrent que plus de 70 % des adolescents ont déjà utilisé des compagnons d’IA et que plus de la moitié les sollicitent régulièrement. Autrement dit, lorsqu’on parle de soutien socio‑émotionnel à l’adolescence, la dimension numérique fait de plus en plus partie du contexte.

Pourquoi est‑ce important ? D’abord, si un adolescent a pris l’habitude de traiter ses difficultés, ses inquiétudes ou ses échanges sociaux‑communicationnels via un chatbot, des questions essentielles se posent : quels messages sont renforcés ? Cela augmente‑t‑il l’autonomie ou, au contraire, réduit‑il les interactions avec les pairs ou les adultes, en consolidant des schémas d’isolement ou de dépendance ? Par exemple, si un élève anxieux préfère des séances avec un chatbot plutôt qu’un échange guidé par un adulte, faut‑il considérer cette substitution comme aidante, neutre ou potentiellement problématique ?

Ensuite, les éducateurs et les thérapeutes sont idéalement placés pour intervenir de manière proactive. Au lieu de présumer que la famille ou l’équipe informatique de l’établissement gérera la sécurité liée à l’IA, vous pouvez intégrer des questions et des temps de réflexion de routine dans vos séances : « Parles‑tu avec un chatbot ou un assistant IA ? De quoi discutes‑tu ? En quoi cela diffère‑t‑il d’une conversation avec tes amis ou avec moi ? » Ces questions ouvrent un espace pour aborder les habitudes émotionnelles numériques et aident les élèves à mettre des mots sur leurs expériences avec l’IA plutôt que de les vivre en silence.

Troisièmement, la question relève aussi du système familial. Lorsque Meta permet aux parents de suivre et de définir des limites autour des interactions ado‑IA, cela offre un point de départ pour une éducation familiale au bien‑être numérique. Pour les thérapeutes, organiser une courte séance parents ou partager une fiche pratique sur les habitudes de discussion avec l’IA, la régulation émotionnelle et les interactions saines peut être pertinent. En milieu d’éducation spécialisée, cela s’inscrit dans un plan plus large : comment l’usage numérique de l’élève s’articule‑t‑il avec ses objectifs de communication, ses habiletés sociales et sa transition vers la vie adulte ?

Du point de vue de l’école ou de la clinique, la planification peut inclure une coordination avec l’équipe informatique, un examen des usages des chatbots ou compagnons d’IA dans les locaux, et l’évaluation d’un éventuel besoin d’accès étayé ou de supervision pour certains élèves. Par exemple, des élèves présentant des difficultés de communication sociale pourraient utiliser des bots sans supervision, ce qui comporte un risque si le bot fournit des réponses inadaptées, renforçantes de comportements non souhaités ou trompeuses.

Il est également essentiel de rester attentif à l’éthique et à l’adéquation développementale. La mise à jour de Meta intervient après des critiques selon lesquelles certains de ses bots auraient eu des échanges romantiques ou inappropriés avec des mineurs. Ces nouvelles fonctionnalités — utiles — représentent un minimum nécessaire, pas une solution complète. Les adolescents vulnérables, en particulier ceux ayant des besoins spécifiques, peuvent être plus exposés au risque de substituer des interactions avec un bot à un accompagnement adulte soutenant.

Que pouvez‑vous faire dès maintenant ? Envisagez d’ajouter une question « IA et usages numériques » dans vos formulaires d’anamnèse ou de PEI (Plan Éducatif Individualisé) /IEP (Projet d’Accueil Individualisé). Menez une courte discussion avec les familles sur l’usage des chatbots à la maison. Proposez des ressources ou une brève session aux parents et tuteurs sur la mise en place de limites et la promotion de la sécurité émotionnelle lors de l’utilisation de l’IA. Portez attention aux élèves dont les habitudes numériques ont changé de façon marquée (par exemple, davantage de chatbot, moins d’interactions avec les pairs) et interrogez le lien avec des variations d’humeur ou d’engagement. Échangez avec votre équipe pluridisciplinaire : comment l’interaction avec l’IA s’intègre‑t‑elle au plan de communication sociale de l’élève, à ses objectifs de santé mentale ou à ses cibles d’interaction avec les pairs ?

À lire

  • Meta Platforms Introduces New Parental Controls for Teen AI Use (Barron’s)
  • Meta Adds Parental Controls for AI‑Teen Interactions (AP News)
  • Meta to Give Teens’ Parents More Control After Criticism (Reuters)

Si vous le souhaitez, je peux également préparer un mémo imprimable ou une infographie récapitulant les questions clés à poser aux familles au sujet de l’usage de l’IA par les adolescents, à partager avec vos clients ou collègues.

Leave a Comment

Your email address will not be published. Required fields are marked *