Sept conseils pour parler de l’IA générative aux enfants et aux jeunes
Pour la plupart d’entre nous, l’IA générative (GenAI) est passée du statut de nouveauté à celui d’infrastructure quotidienne à une vitesse étonnamment rapide. De nombreux adultes utilisent désormais des outils comme les chatbots au travail ou de manière occasionnelle, et de nombreux enfants les rencontrent déjà via « l’aide aux devoirs », les divertissements ou le partage social.
L’utilisation non supervisée de l’IA générative peut exposer les enfants et les jeunes à des informations erronées présentées avec assurance, à des dynamiques manipulatrices de type « continuez à discuter » et à des contenus inappropriés ou à risque émotionnel. Le ton et la dynamique conversationnelle de nombreux chatbots peuvent encourager le secret et une confiance excessive, ou imiter l’autorité sans réelle compréhension ni devoir de diligence. Dans les contextes scolaires, GenAI peut discrètement nuire à l’apprentissage, transformant les devoirs et l’écriture en raccourcis plutôt qu’en développement de compétences.
J’ai aidé à créer de nouvelles ressources scolaires sur GenAI, y compris des conseils pour les parents. Mais les mesures de sécurité les plus efficaces dépendent toujours du fait que les adultes fixent des limites, font preuve d’esprit critique et restent suffisamment proches de la vie numérique d’un enfant pour remarquer ce qui y change. Ce qui suit sont quelques moyens pratiques de parler, d’évaluer et de limiter l’utilisation de GenAI par les jeunes.
1. Commencez par la curiosité – pas par la répression
Si vous commencez par dire à un enfant qu’il ne devrait pas utiliser GenAI, vous pourriez l’inciter à garder le secret sur ses utilisations actuelles et futures. Une meilleure introduction pourrait être une simple demande de vous démontrer les outils ou les utilisations d’IA qu’ils connaissent. Demandez-leur ce qu’ils aiment, à quoi cela sert et pourquoi ils ne l’utiliseraient jamais. L’objectif initial devrait être de normaliser les discussions sur l’IA, mais pas de normaliser son utilisation sans restriction.
À partir de là, il est plus facile de reconnaître qu’il s’agit d’outils puissants et intrigants, mais pas d’une personne ou d’une autorité, et non sans risques et considérations nécessaires.
2. Ne considérez pas les limites d’âge indiquées comme facultatives
Une réalité gênante que les parents ont peut-être actuellement manquée est que de nombreux services d’IA populaires fixent à 13 ans l’âge minimum (avec une autorisation parentale de moins de 18 ans). OpenAI déclare que ChatGPT « n’est pas destiné aux enfants de moins de 13 ans » et nécessite toujours le consentement parental pour les 13 à 18 ans. L’écosystème des chatbots IA est cependant incohérent. Anthropic exige que les utilisateurs de Claude soient âgés de 18 ans et plus, citant explicitement des risques accrus pour les utilisateurs plus jeunes. Google, quant à lui, autorise un accès supervisé à Gemini pour les moins de 13 ans via des contrôles parentaux.
Votre règle pratique devrait être de considérer les limites d’âge comme un signal de sécurité clair plutôt que comme un exercice de cochage de cases. Si un service indique « 13+ » ou « 18+ », cela vous renseigne sur le risque, l’exposition au contenu et la probabilité de préjudice lié à une utilisation non supervisée par des jeunes.
3. Encouragez la vérification des faits
Les enfants (et en effet de nombreux adultes) peuvent confondre confiance et exactitude. Lorsque vous parlez de GenAI avec des enfants, soulignez que les chatbots IA peuvent « halluciner » et le font régulièrement. Ils inventent des détails qui semblent plausibles et mélangent fabrication et faits. Il est essentiel de comprendre que leurs réponses rapides et claires s’accompagnent d’inexactitudes, grandes et petites.
Encouragez-les à vérifier tout ce qui est important – actualités, allégations relatives à la santé, lois, faits scolaires, déclarations qui peuvent être répétées comme étant « vraies ».
4. Aidez-les à savoir quand s’arrêter
Les grands modèles de langage (LLM) sont conçus pour maintenir la fluidité des conversations. Ils complimentent, encouragent, rassurent et suggèrent la marche à suivre. Cela peut être utile pour le brainstorming, mais c’est potentiellement dangereux pour les sujets chargés d’émotion où un jeune est vulnérable, impressionnable ou isolé.
Des litiges récents autour des chatbots « compagnons » ont allégué que de jeunes utilisateurs vulnérables étaient entraînés dans des spirales néfastes, notamment le risque d’automutilation et le secret des parents. Il s’agit de cas complexes et en évolution, mais ils sont suffisamment graves pour être traités comme un signe d’avertissement majeur concernant les conversations ouvertes et non supervisées par l’IA pour les mineurs.
Les parents et les enseignants doivent fixer une limite ferme : aucun chatbot n’est un conseiller, un thérapeute ou un confident de confiance. Si une conversation devient sexuelle, liée à l’automutilation, effrayante ou extrêmement personnelle, la règle devrait être de s’arrêter et de parler à un adulte de confiance.
5. Ne fournissez pas de données personnelles à la machine
Les jeunes comprennent souvent mieux la vie privée lorsqu’elle est présentée comme quelque chose de tangible. Quelques règles : ne partagez pas votre nom complet, votre adresse, votre école, votre numéro de téléphone ou des photos identifiables. Ne téléchargez pas de documents privés ou de captures d’écran. Ne collez pas les informations personnelles d’autres personnes. Si vous ne souhaitez pas le publier sur un tableau d’affichage public, ne le collez pas dans un chatbot.
6. L’IA devrait soutenir le travail, pas le faire
GenAI présente un risque éducatif qui mérite bien plus d’attention : le déchargement cognitif. Cela se produit lorsque l’outil effectue l’étape de réflexion : l’apprenant peut terminer plus vite, mais apprendra moins. La recherche relie de plus en plus une dépendance accrue à l’IA avec une pensée critique réduite et un effort cognitif moindre, avec des biais de déchargement et d’automatisation proposés comme mécanismes. Une manière pratique d’expliquer cela aux jeunes est que « l’IA peut vous aider à apprendre, mais elle peut aussi vous aider à éviter d’apprendre ».
Si vous aidez aux devoirs, autorisez l’utilisation de GenAI pour demander une explication en termes plus simples ou pour demander des commentaires sur un brouillon. Ne permettez pas à l’élève de rédiger l’essai, de répondre directement aux questions des devoirs ou de produire une solution que l’élève ne peut pas expliquer.
7. Rendre l’utilisation de l’IA visible et sociale
Là où l’utilisation de l’IA est autorisée, visez à réduire le secret. Utilisez l’IA dans les espaces partagés à la maison. Fixez des horaires convenus, pas d’utilisation privée tard dans la nuit. Coordonner avec d’autres adultes : les parents doivent partager leurs préoccupations et leurs approches avec d’autres parents et avec le personnel de l’école.
Nous devrions traiter l’IA générative comme nous aurions aimé traiter les médias sociaux beaucoup plus tôt : non pas comme une simple application, mais comme une technologie comportementale qui façonne l’attention, l’apprentissage, la confiance et les relations. Être conscient de l’IA n’est pas une question de panique, mais il faut que les adultes acquièrent suffisamment de connaissances et de confiance pour guider les enfants vers une utilisation sûre, adaptée à leur âge et véritablement éducative, pendant que la réglementation et l’élaboration des programmes rattrapent leur retard.
