Contrôles parentaux et utilisation de l'IA chez les adolescents: ce que les éducateurs et les thérapeutes doivent savoir

L'intelligence artificielle est maintenant profondément tissée dans la vie numérique des adolescents, et les récents développements de Meta Platforms illustrent comment cela suscite à la fois excitation et inquiétude. En octobre 2025, Meta a annoncé de nouvelles fonctionnalités de contrôle parental conçues pour aborder la façon dont les adolescents interagissent avec les chatbots AI sur les plateformes AI Instagram, Messenger et Meta. Ces nouveaux paramètres permettront aux parents de désactiver les conversations individuelles avec des caractères AI, de bloquer entièrement des caractères AI spécifiques et d'obtenir des informations sur les sujets plus larges que leurs adolescents discutent avec l'IA.

Pour les thérapeutes et les éducateurs spéciaux, ce type de changement a une pertinence directe. Les adolescents utilisent des chatbots AI non seulement comme des applications de nouveauté, mais comme compagnons quotidiens, confidents et partenaires conversationnels. Selon certaines recherches, plus de 70 % des adolescents ont utilisé des compagnons d'IA et plus de la moitié s'engagent régulièrement. Cela signifie que lorsque nous parlons de soutien social et émotionnel des adolescents, la dimension numérique fait de plus en plus partie du contexte.

Pourquoi est-ce important ? Tout d'abord, si un adolescent est en train de former un modèle de travail à travers les défis, les soucis ou la communication sociale via un chatbot AI, cela soulève des questions importantes : quel genre de messages sont renforcés ? Ces facteurs augmentent-ils l'autonomie, réduisent-ils l'interaction entre les pairs ou les adultes ou renforcent-ils des modèles malsains d'isolement ou de dépendance? Par exemple, si un étudiant anxieux préfère des séances avec un chatbot à des discussions dirigées par des adultes, nous devons nous demander si cette substitution est utile, neutre ou potentiellement problématique.

Deuxièmement, les éducateurs et les thérapeutes sont bien placés pour intervenir de manière proactive. Au lieu de simplement supposer que l'informatique familiale ou scolaire gérera la sécurité de l'IA, vous pouvez intégrer des questions et des réflexions de routine dans vos séances : « Parlez-vous avec un chatbot ou un assistant d'IA ? De quoi tu parles ? Comment cela se compare-t-il à parler à des amis ou à moi ?" Ces questions ouvrent la discussion sur les habitudes émotionnelles numériques et aident les élèves à exprimer leurs expériences avec l'IA plutôt que de les consommer silencieusement.

Troisièmement, il s'agit aussi d'un problème de famille et de systèmes. Quand Meta permet aux parents de surveiller et de fixer des limites autour des interactions entre l'adolescent et l'AI, il offre un point de départ pour éducation familiale autour du bien-être numérique. Pour les thérapeutes, l'hébergement d'une brève session parentale ou l'envoi d'un document sur les habitudes de chat d'IA, la régulation émotionnelle et l'interaction saine pourraient avoir un sens. Dans des contextes éducatifs spéciaux, cela s'inscrit dans un plan plus large : comment l'utilisation numérique des étudiants se croise-t-elle avec les objectifs de communication, les compétences sociales et la transition vers la vie adulte ?

Du point de vue de l'école ou de la clinique, la planification pourrait inclure la coordination avec l'équipe de TI, l'examen de la façon dont les chatbots ou les compagnons d'IA sont utilisés dans le bâtiment, et la question de savoir si certains élèves ont besoin d'un accès échafaudé ou d'une supervision. Par exemple, les étudiants qui ont des problèmes de communication sociale pourraient utiliser des robots d'IA sans supervision, ce qui introduit le risque si le robot offre des réponses qui ne sont pas utiles, qui renforcent ou qui trompent.

Il est également important de rester attentif à l'éthique et à la pertinence du développement. La mise à jour de la Meta's vient après la critique que certains de ses robots engagés dans des échanges romantiques ou inappropriés avec des mineurs. Ces nouvelles fonctionnalités—tout en aidant—sont minimum réponse, pas une solution complète. Les adolescents vulnérables, en particulier ceux qui ont des besoins spéciaux, risquent davantage de substituer l'interaction fondée sur les robots à l'engagement des adultes.

Que pouvez-vous faire maintenant ? Envisagez d'inclure une question d'AI numérique dans vos formulaires d'admission ou de PEI. Faites une courte conversation avec les familles au sujet de l'utilisation du chatbot à la maison. Offrir des ressources ou une brève séance aux parents et aux tuteurs sur l'établissement des limites et la promotion de la sécurité émotionnelle dans l'utilisation de l'IA. Jetez un coup d'œil aux élèves dont les habitudes numériques ont considérablement changé (par exemple, plus d'utilisation de chatbots, moins d'interactions entre pairs) et réfléchissez à la question de savoir si cela coïncide avec des changements d'humeur ou d'engagement. Dialogue avec votre équipe multidisciplinaire : comment l'interaction avec l'IA s'intègre-t-elle dans le plan de communication sociale de l'étudiant, les objectifs de santé mentale ou les objectifs d'interaction entre pairs ?

Lecture suggérée :

  • Meta Platforms introduit de nouveaux contrôles parentaux pour l'utilisation de l'IA des adolescents (Barron) Autres
  • Meta ajoute des contrôles parentaux pour les interactions AI-Teen (Nouvelles du PA) AP Nouvelles
  • Meta pour donner aux adolescents un meilleur contrôle aux parents après la critique (Reuters) Reuters

Laissez un commentaire

Votre adresse email ne sera pas publiée. Les champs obligatoires sont marqués *

Panier