
L'intelligence artificielle est dérivée de la vie numérique des adolescents, et les récents développements chez Meta Platforms suspensent à la fois enthousiasme et vigilance. En octobre 2025, Meta a annoncé de nouveaux contrôles parentaux visant à encadrer la façon dont les adolescents interagissent avec des chatbots d-IA sur Instagram, Messenger et les platesformes d-IA de Meta. Ces chiffres permettent aux parents de désactiver les conversations en tête‐à‐tête avec des personnages d-IA, de bloquer certains personnages d-IA entièrement et d-obtenir une vision d-
Pour les thérapeutes et les enseignants spécialisés, ce virage a une porte directe. Les ados utilisent les chatbots d-IA non plus comme de simples gadgets, mais comme des compagnons du quotidien, des confiants et des partenaires de conversation. Certaines données suggèrent que plus de 70 % des adolescents ont déjà utilisé des compagnons d'IA et que plus de la mobilité les sols. Autre dit, lorsqu'on parle de soutien socio-émotionnel à l'adolescence, la dimension numérique fait de plus en plus partie du contexte.
Pourquoi est-ce important ? Dabord, si un adolescent a pris l'habitude de traiter ses difficultés, ses enquêtes ou ses échanges sociaux‐communications via un chatbot, des questions essentielles se poser : quels messages sont rendus ? Cela augmente-t-il l'autonomie ou, au contraire, réduit-il les interactions avec les pairs ou les adultes, en consolidant des schémas d'isolement ou de dépendance ? Par exemple, si un élève anxieux préfère des séances avec un chatbot plutôt qu'un échangeguidé par un adulte, faut‐il considérer cette substitution comme aidante, neutre ou potentiellement problématique ?
Ensuite, les éducateurs et les thérapeutes sont idéalement placés pour intervenir de manière proactive. Au lieu de prendre que la famille ou l'équipe informatique de l'établissement gérera la sécurité liée à l'IA, vous pouvez intégrer des questions et des temps de réflexion de routine dans vos séances : « Parles‐tu avec un chatbot ou un assistant IA ? De quoi discutons-tu ? En quoi cela différente‐t‐il une conversation avec tes amis ou avec moi ? » Ces questions ouvrent un espace pour aborder les habitudes émotionnelles numériques et identifier les élèves à mettre des mots sur leurs expériences avec l=IA plutôt que de les vivre en silence.
Troisièmement, la question relève aussi du système familial. Lorsque Meta permet aux parents de suite et de définir des limites autour des interactions ado‐IA, cela offre un point de départ pour une éducation familiale au bien-être numérique. Pour les thérapies, organiser une courte séance parents ou partager une fiche pratique sur les habitudes de discussion avec l'IA, la régulation émotionnelle et les interactions saines peut être pertinente. En milieu d'éducation spécialisée, cela s=inscrit dans un plan plus grand : comment l=usage numérique de l=élève s=articule‐t‐il avec ses objectifs de communication, ses habilets sociaux et sa transition vers la vie adulte ?
Du point de vue de l'école ou de la clinique, la planification peut inclure une coordination avec l'équipe informatique, un examen des usages des chatbots ou compagnons d-IA dans les locaux, et l'évaluation d'un inventaire besoin d'accès ou de supervision pour certains élèves. Par exemple, des élèves présentant des difficultés de communication sociale peuvent utiliser des bots sans supervision, ce qui comporte un risque si le bot fournit des réponses inadaptées, des rapports de rapports non animés ou trompeuses.
Il est également essentiel de rester attentif à l'éthique et à l'adéquation développementale. La mise à jour de Meta intervient après des critiques selon lesquelles certains de ses robots aura eu des échanges romantiques ou inappropriés avec des mineurs. Ces nouvelles fonctions — Utiles — représentant un minimum nécessaire, pas une solution complète. Les adolescents vulnérables, en particulier ceux ayant des besoins spéciaux, peuvent être plus exposés au risque de substitution des interactions avec un bot à un accompagnement adulte sonore.
Que pouvez-vous faire dès maintenant ? Envisagez dajouter une question « IA et usages numériques » dans vos formules d'anamnèse ou de PEI (Plan éducatif individualisé) /IEP (Projet d'Accueil individualisé). Menez une courte discussion avec les familles sur l'usage des chatbots à la maison. Proposez des ressources ou une brève session aux parents et tuteurs sur la mise en place de limites et la promotion de la sécurité émotionnelle lors de l'utilisation de l'IA. Portez attention aux élèves dont les habitudes numériques ont Changé de façon marquee (par exemple, avantage de chatbot, moins d'interactions avec les paires) et interrogez le lien avec des variations d'humour ou d'engagement. Échangez avec votre équipe pluridisciplinaire : comment l=interaction avec l=IA s=integre‐t‐elle au plan de communication sociale de l=élève, à ses objectifs de santé mentale ou à ses cibles d=interaction avec les paires ?
À lire
- Meta Platforms introduit de nouveaux contrôles parentaux pour l'utilisation de l'IA des adolescents (Barron)
- Meta ajoute des contrôles parentaux pour les interactions AI‐Teen (Nouvelles PA)
- Meta pour donner aux adolescents un meilleur contrôle aux parents après la critique (Reuters)
Si vous le souhaitez, je peux également préparer un mémo imprimable ou une infographie récapitulant les questions liées à poser aux familles au sujet de l'usage de l'IA par les adolescents, à partager avec vos clients ou collègues.
