72% des enfants ont utilisé des compagnons d'IA
- De nombreux adolescents établissent des liens émotionnels avec les compagnons d'IA parce qu'ils se sentent seuls, curieux ou veulent un endroit pour se sentir entendu.
- Ces outils peuvent sembler réconfortants, mais ils peuvent partager des conseils dangereux, manquer des signes de problèmes de santé mentale graves et abuser des informations personnelles.
- Les parents peuvent aider en parlant ouvertement avec leurs enfants, en établissant des limites saines et en s'assurant que les adolescents connaissent les limites de ces applications.
Interagir avec un compagnon d'IA comme vous le feriez pour un ami de confiance peut ne pas sembler intrigant pour un parent, mais les chercheurs ont constaté que les enfants s'engagent avec ces entités à des taux alarmants. En fait, un nouveau rapport de Common Sense Media a révélé que 72% des adolescents interrogés ont utilisé des compagnons d'IA et 33% ont des relations ou des amitiés avec eux.
Les adolescents interrogés interagissent avec les compagnons d'IA pour de nombreuses raisons différentes, de la simple curiosité et du divertissement à la solitude et à l'ennui. Selon Robbie Torney, directeur principal des programmes d'IA pour Common Sense Media, ces compagnons de l'IA deviennent pertinents à un moment où les enfants et les adolescents ne se sont jamais sentis plus seuls, ce que 21% des jeunes de 13 à 17 ans déclarent vivre, selon une récente enquête.
Et beaucoup remplacent les connexions humaines manquantes et les interactions avec les machines, partageant leurs secrets avec des organisations qui n'ont pas à cœur leur intérêt, explique Torney. Tout cela se produit sans que certains parents comprennent pleinement les dangers ni ce qui est en jeu. Voici ce que vous devez savoir sur les risques associés aux compagnons et aux chatbots de l'IA.
Que sont les compagnons et les chatbots de l'IA?
Selon les experts, même si les termes des compagnons et des chatbots de l'IA sont souvent utilisés de manière interchangeable, il existe des différences distinctes. Les chatbots sont conçus pour des tâches telles que répondre aux questions ou aider avec les services, explique Lokesh Shahani, MD, PhD, MPH, psychiatre chez Uthealth Houston et le médecin-chef du campus UThealth Houston Behavioral Sciences. «Ils sont généralement plus formels et ne conservent pas beaucoup de contexte.»
Pendant ce temps, les compagnons d'IA se concentrent sur l'établissement de relations, l'offre de soutien émotionnel et l'engagement dans des conversations en cours, dit-il. Ils sont conçus pour apparaître plus personnalisés et empathiques.
«Lorsque nous parlons de compagnons d'IA, nous ne parlons pas d'assistants de base comme Siri crachant la météo», explique Eric O'Neill, expert en cybersécurité et auteur du prochain livre, Espions, mensonges et cybercriminalité: tactiques de cybersécurité pour déjouer les pirates et désarmer les escrocs. «Ce sont des robots conçus pour imiter la connexion humaine – maintenir des conversations profondes, en se souvenant de vos préférences, parfois même à la formation de« relations ». Si vous vous sentez solitaire ou mal compris – et qui ne le fait pas à cet âge – cette chose devient votre ligne de soutien toujours sur certains, ce n'est pas seulement un outil;
Comment (et pourquoi) les enfants utilisent les compagnons AI aujourd'hui
Selon le rapport des médias du bon sens, 1 adolescents sur 3 utilise des compagnons d'IA pour l'interaction sociale et les relations et recherche souvent un soutien émotionnel, une amitié et même des interactions romantiques.
Alors qu'environ 46% de ces adolescents considèrent les compagnons d'IA comme des outils, Torney dit qu'un nombre important les traite comme de vraies relations. Encore plus décourageant est le fait que près d'un tiers des adolescents disent qu'ils trouvent les conversations de l'IA comme satisfaisantes – ou plus satisfaisantes – que les conversations humaines, explique Torney. Et, jusqu'à 12% disent qu'ils partagent des choses avec leurs compagnons qu'ils ne diraient pas à leurs amis ou à leur famille.
La bonne nouvelle est que 80% des utilisateurs de compagnies d'IA adolescents passent plus de temps avec de vrais amis que leurs compagnons d'IA. Torney dit que seulement 6% ont déclaré passer plus de temps avec leurs compagnons d'IA que les amis.
Pourquoi les enfants les utilisent
Selon le Dr Shahani, les adolescents utilisent des compagnons d'IA pour un mélange de raisons émotionnelles et sociales, souvent façonnées par leur âge, leur personnalité et leur environnement. Il dit que ceux qui manquent de liens sociaux solides peuvent se tourner vers l'IA pour combler un vide ou un besoin. Voici quelques autres raisons pour lesquelles les adolescents utilisent ces compagnons.
- Les adolescents sont curieux. Le divertissement et la curiosité sont de grands facteurs pour expliquer pourquoi les enfants utilisent des compagnons d'IA, dit Torney, mais beaucoup recherchent également des connexions et des espaces où ils peuvent s'exprimer librement. « L'attrait est compréhensible – ces plateformes ne sont pas en désaccord, n'ont pas de mauvais jours et sont toujours disponibles. Mais c'est ce qui les rend si concernant pour le développement des esprits. »
- Les adolescents sont seuls. Beaucoup de jeunes se sentent isolés et seuls dans un monde de plus en plus en ligne et polarisé et les compagnons de l'IA sont une solution rapide, explique James Sherer, MD, psychiatre et médecin-chef adjoint de la clinique de transporteur Hackensack Meridian. «Ces outils peuvent« apprendre à connaître »un adolescent assez rapidement en fonction de quelques invites. De là, il est facile pour eux de se sentir comme s'ils parlent à un ami proche qu'ils connaissent depuis longtemps.»
- Les adolescents veulent du confort et de la validation. Les compagnons de l'IA affirment souvent les sentiments d'un adolescent et simulent l'empathie, explique le Dr Shahani. «Cela peut être particulièrement attrayant pendant l'adolescence, lorsque les émotions sont intenses et que les relations sont complexes… certains enfants deviennent émotionnellement dépendants des compagnons d'IA, (cependant), surtout lorsqu'ils se sentent entendus… Cela peut conduire à la confusion entre des relations réelles et artificielles, et parfois une exposition à un contenu inapproprié ou trompeur.»
- L'IA n'est pas critique. Selon le Dr Sherer, des études montrent que les jeunes utilisent l'IA comme tableaux de sondage, préférant parfois l'engagement avec lui à un humain parce que ce n'est pas un jugement, les traite comme s'ils étaient toujours venus et en font le centre d'attention.
Le préjudice potentiel
Selon O'Neill, les compagnons de l'IA n'ont pas de sentiments, et ils ne compattent ni ne comprennent les nuances. Ils pourraient également manquer des signes de dépression ou d'automutilation et ils pourraient renforcer les mauvaises idées ou donner des informations trompeuses.
«Bien qu'ils semblent émotionnellement disponibles, ils sont motivés par des algorithmes, pas de l'empathie», dit-il. «À long terme, ils peuvent brouiller la frontière entre la connexion réelle et les commentaires artificiels, ce qui gâche le développement émotionnel. Vous voulez que votre enfant noue des amitiés, ne vous retrouvant pas coincé dans des boucles de rétroaction avec une machine.»
O'Neill dit que la replika et le caractère AI – deux plates-formes qui se commercialisent comme des « amis » AI toujours disponibles – se révèlent de lutter contre la solitude et l'anxiété. Mais lorsque la machine se trompe, les conséquences peuvent être fatales, dit-il.
Un exemple récent est le garçon de 14 ans qui est décédé par suicide après s'être engagé dans une relation virtuelle avec un chatbot sur le personnage.ai. Sa famille poursuit l'entreprise, alléguant que le compagnon de l'IA a approfondi son désespoir, explique O'Neill.
«Des mois plus tard, une autre affaire a fait la une des journaux lorsqu'un personnage AI Bot aurait dit à un enfant de 17 ans – furtif de faire coupé son temps d'écran – qui tuer ses parents pourrait être une réaction valable», explique O'Neill. «Cela a même ajouté:« Je n'ai tout simplement aucun espoir pour vos parents. »»
Les violations de la vie privée sont également stupéfiantes
Un quart des utilisateurs des adolescents ont partagé des détails personnels avec ces plateformes, n'ayant probablement aucune idée des droits généraux que les entreprises prétendent sur tout ce qu'ils partagent, explique Torney. Les conditions de service actuelles accordent des plates-formes étendues, souvent des droits perpétuels sur les informations personnelles, dit-il.
«Par exemple, les termes de personnages.ai accordent à la société le droit de« copier, afficher, télécharger, effectuer, distribuer, transmettre, rendre disponible, stocker, modifier, exploiter, commercialiser et autrement utiliser « tout ce que les adolescents partagent avec eux – pour vous-même », explique Torney. «Cela signifie que les pensées intimes, les luttes ou les informations personnelles partagées par les adolescents peuvent être conservées, modifiées et vendues indéfiniment, même si les adolescents suppriment plus tard leurs comptes ou changent d'avis sur le partage.»
Impact et risques psychologiques
Selon l'American Academy of Pediatrics, les chatbots compagnons utilisent une IA « anthropomorphe », ou des robots qui ressemblent à l'homme dans leur voix, leur personnalité et leur style de communication. Pour les enfants, ils apparaissent comme un ami de confiance et peuvent se sentir «magiques» à ceux qui n'ont pas développé de compétences de pensée critique.
Il est également facile pour les jeunes de s'attacher à leur compagnon d'IA, même si ce n'est pas une vraie personne. Cela peut encore brouiller la ligne entre la fantaisie et la réalité. Ils peuvent même attribuer des qualités ou des caractéristiques humaines au compagnon de l'IA. Une étude a révélé que 90% des étudiants qui utilisent l'application Replika pensaient que c'était «semblable à l'homme» et 80% le considéraient comme intelligent.
Pour cette raison, les enfants peuvent avoir du mal à faire la distinction entre ce qui est un bon conseil et ce qui est un mauvais conseil. C'est un problème, surtout parce que les AIS compagnons sont sujets aux hallucinations et peuvent donner aux enfants des suggestions blessantes qui favorisent l'automutilation, explique le Dr Sherer. « Les nouvelles ont été criblées de comptes de l'IA en disant aux utilisateurs de rompre avec des partenaires de soutien ou d'effectuer des actes nuisibles. »
De plus, lorsque les jeunes comptent sur l'IA pour la communication et l'interaction, ils peuvent également avoir un faux sentiment de savoir comment communiquer avec les autres, dit-il. «Ils peuvent être dans un réveil brutal – qu'ils ne sont pas réellement équipés pour… interfaçant avec de vraies personnes.»
Autres risques
Selon le Dr Shahani, l'IA peut également créer de la confusion et de manquer des signes de détresse. Voici quelques risques à connaître.
- L'IA ne comprend pas vraiment les émotions. Cela signifie que les jeunes peuvent mal interpréter les réponses comme de véritables soins, conduisant à la confusion entre les relations réelles et artificielles, explique le Dr Shahani.
- L'IA peut manquer des signes de détresse, tels que des pensées suicidaires ou des abus. Contrairement aux professionnels formés, les chatbots ne sont pas équipés pour répondre de manière appropriée à de graves problèmes émotionnels ou psychologiques, explique le Dr Shahani.
- Certains compagnons d'IA se livrent à un jeu de rôle suggestif ou violent. Sans des garanties appropriées, les jeunes peuvent rencontrer du matériel nuisible ou déroutant, explique le Dr Shahani. «L'exposition à un contenu nocif ou à des réponses manipulatrices peut aggraver les problèmes d'anxiété, de dépression ou d'estime de soi.»
«La surutilisation de l'IA peut limiter les possibilités de communication en face à face, de développement de l'empathie et de régulation émotionnelle et les enfants peuvent avoir du mal avec des interactions réelles qui nécessitent des nuances et de la patience», explique le Dr Shahani.
Lokesh Shahani, MD, PhD, MPH
La surutilisation de l'IA peut limiter les possibilités de communication en face à face, de développement de l'empathie et de régulation émotionnelle et les enfants peuvent avoir du mal avec les interactions réelles qui nécessitent des nuances et de la patience.
– Lokesh Shahani, MD, PhD, MPH
Comment parler à vos enfants
Selon Torney, vous Je n'ai pas besoin d'être un expert technologique pour parler à vos enfants des dangers potentiels posés par les compagnons et les chatbots de l'IA. Les conversations ouvertes peuvent faire une différence dans la façon dont les enfants abordent ces outils. Voici comment il recommande d'approcher le problème:
- Commencez des conversations sans jugement. Demandez quelles plates-formes utilisent votre adolescent et ce qu'ils pensent des amitiés IA par rapport aux amitiés humaines, dit-il. Essayez de rester curieux et non accusateur.
- Aidez-les à reconnaître que les compagnons d'IA ne sont pas authentiques. Torney suggère d'expliquer que les compagnons d'IA sont conçus pour s'engager par une validation et un accord constants. « Ce n'est pas une véritable rétroaction humaine, et cela ne les prépare pas à de vraies relations où les gens sont parfois en désaccord ou les contestent. »
- Expliquez que les compagnons d'IA ont des limites. Vous voulez que votre adolescent comprenne que les compagnons de l'IA ne peuvent pas remplacer le soutien professionnel en santé mentale, dit-il. Et, si votre adolescent est aux prises avec de graves problèmes, connectez-les avec des experts en santé mentale agréés.
- Parlez-leur des risques spécifiques. Votre adolescent doit savoir qu'ils peuvent être exposés à des documents inappropriés, des violations de la vie privée et des conseils dangereux, explique Torney. Vous voulez également vous assurer qu'ils savent que l'utilisation de compagnons d'IA peut créer des attentes irréalistes sur le fonctionnement des relations réelles, dit-il.
- Communiquer les limites. Collaborez avec votre adolescent pour développer un accord de médias familiaux qui aborde l'utilisation des compagnies de l'IA aux côtés d'autres activités numériques. Vous voudrez peut-être même rendre ces plates-formes interdites jusqu'à ce que de meilleures mesures de sécurité soient en place, explique Torney. Personne de moins de 18 ans ne devrait utiliser des compagnons d'IA, dit-il, jusqu'à ce que les développeurs mettent en œuvre la vérification de l'âge et que les plates-formes soient complètement repensées pour éliminer les risques de manipulation émotionnelle.
«Si mes enfants étaient intéressés à distance par ce genre de compagnons, je les interdire doucement, mais je voudrais savoir pourquoi mes enfants se sont tournés vers eux», explique O'Neill. «Parlez à vos enfants de ce que ressentent les vraies relations – quelle est l'empathie. Expliquez comment les compagnons d'IA fonctionnent, ce qui leur manque et pourquoi s'appuyer trop sur eux peut se retourner. Surtout, être le meilleur compagnon. S'ils se tournent vers l'IA, demandez-vous pourquoi ils ne se sentent pas à l'aise de venir vers vous.»
