Nul doute que l’intelligence artificielle (IA) est un outil utile. Faisant désormais partie intégrante de notre quotidien, elle offre une oreille attentive, de précieux conseils et des services en tous genres. Mais elle présente aussi des risques, dont nous devons avoir conscience pour aider les enfants à l’utiliser de manière responsable. Or, tandis que des experts du monde entier commençaient à pointer les dangers pour les jeunes des agents conversationnels (ou chatbots) basés sur l’IA, des milliers de parents ont reçu un e-mail surprenant : « Bonjour, les applications Gemini seront bientôt accessibles à vos enfants », a-t-il annoncé début mai 2025 aux utilisateurs du service Family Link de Google situés en dehors de l’Espace économique européen et du Royaume-Uni.
Pourtant, la plupart des plateformes d’IA indiquent dans leurs conditions d’utilisation qu’il faut avoir au moins 13 ans pour utiliser leurs outils. Alors, en quoi l’approche de Google est-elle différente ? Pourquoi pousser les plus jeunes à utiliser l’IA et que peuvent-ils faire avec Gemini ?
Que peuvent faire les enfants avec Gemini ?
D’après l’e-mail envoyé aux utilisateurs de Family Link, Gemini offre des avantages aux enfants dans trois grands domaines :
- Créativité : ses outils peuvent les aider à créer des histoires, des chansons et des poèmes.
- Curiosité : ils peuvent lui poser toutes sortes de questions.
- Apprentissage : ils peuvent s’en servir pour faire leurs devoirs.
Ces utilisations sont semblables à celles des outils d’IA générative par un grand nombre d’adultes jusqu’à présent – production d’images virales, rédaction d’un e-mail qu’ils ont du mal à formuler ou encore recherche de la recette parfaite pour préparer des biscuits bien croquants. C’est pourquoi il est important de leur apprendre à utiliser ces outils de manière appropriée et responsable sans trop tarder. Cependant, au-delà de son caractère positif, cette technologie a un côté obscur, dont les familles doivent être conscientes.
Les informations de Gemini sont-elles adaptées aux enfants ?
Google met les outils d’IA de Gemini seulement à la disposition des enfants dont les parents utilisent son service Family Link afin d’en surveiller l’activité en ligne – pour l’instant. Logiquement, cette approche doit permettre d’en surveiller l’utilisation, outre les garde-fous qu’ont les agents conversationnels comme Gemini pour protéger leurs jeunes utilisateurs. Cela dit, dans son e-mail envoyé aux parents concernés, Google reconnaît que ses filtres sont conçus pour limiter l’accès à tout contenu inapproprié, mais qu’ils ne sont pas parfaits et peuvent donc manquer certains éléments.
Les agents conversationnels basés sur l’IA sont-ils sûrs pour les enfants ?
Quelques jours avant l’envoi de l’e-mail de Google, TechCrunch et le Wall Street Journal ont signalé des bogues concernant des agents conversationnels basés sur l’IA : l’un avec ChatGPT, qui aurait permis à de jeunes utilisateurs de générer des conversations érotiques ; l’autre avec Meta AI, dont les « compagnons numériques » ont la capacité de participer à des jeux de rôle explicites. Bien qu’il s’agisse de bogues et non d’une fonctionnalité, ceux-ci montrent les pièges de ces chatbots, en particulier pour des enfants curieux qui en testeront évidemment les limites.
D’autres plateformes, comme Character AI, présentent un danger accru : leurs capacités à créer des personnages à même de jouer à des jeux de rôle sont moins réglementées et donc plus susceptibles de produire des résultats explicites. Or, puisque ces entités peuvent être créées par n’importe quel internaute, elles risquent d’exposer les jeunes utilisateurs à du contenu dangereux et à des idéologies extrêmes. Gemini ne propose certainement pas de telles fonctionnalités, mais plus les enfants se tournent vers des chatbots et autres personnages en ligne pour obtenir des conseils, plus ils approfondissent leur relation avec eux et plus la frontière entre fiction et réalité s’estompe.
Ce que l’on sait de l’utilisation de l’IA par les enfants
Lutter contre l’IA est peine perdue : à l’instar d’autres innovations, elle a su s’imposer dans nos habitudes numériques. D’ailleurs, alors qu’adultes et enfants l’utilisent de diverses manières, il est important de se rappeler que ce sont les plus scandaleuses qui font souvent les gros titres. Pourtant, beaucoup d’enfants s’en servent et continueront de s’en servir simplement pour s’aider dans leurs devoirs, lui demandant de corriger leur grammaire, et créer des vidéos de ce qu’ils espèrent être la prochaine tendance en matière d’IA. En effet, une enquête réalisée récemment par Common Sense Media auprès d’ados révèle qu’ils se tournent vers des outils d’IA avant tout pour le travail scolaire : 53 % des 13-18 ans déclarent s’en être déjà servi dans ce but.
Cependant, cette enquête souligne également certains côtés moins positifs de l’IA générative :
- 42 % l’utilisent pour tuer l’ennui.
- 19 % s’en servent pour créer notamment des blagues ou taquiner une autre personne.
- 15 % se tournent vers elle pour avoir de la compagnie.
- 12 % y recourent pour générer du contenu à partir de la voix ou de l’image d’une personne.
Ces utilisations pourraient se traduire par des comportements problématiques si on ne montre pas aux enfants et aux ados comment employer les outils d’IA générative de manière responsable.
![2025-05-[Blog]-Gemini-AI-for-under-13s_InsideImage Are Gemini AI tools appropriate for young children?](https://static.qustodio.com/public-site/uploads/2025/05/27135510/2025-05-Blog-Gemini-AI-for-under-13s_InsideImage.png)
Les pièges de l’IA générative dont il faut se méfier
It’s a good idea to repeat what your kids say throughout the conversation, to reflect their thoughts back, show interest in the different points they might raise, and try to avoid interrupting them or criticizing the way they think. On the other hand, as parents, we shouldn’t be afraid to share our thoughts with our kids, to create an environment where everyone feels they can share and their views are worth listening to. We have to be able to exchange opinions freely, even when they’re different.
1. Les informations fournies ne sont pas toujours fiables
L’un des grands avantages de l’IA générative est sa capacité à simplifier ou expliquer des concepts difficiles à comprendre. On peut se renseigner sur presque tout, sans devoir passer au crible des livres, des sites Web ou des forums. Problème, le résultat n’est pas toujours correct : victimes de ce que l’on appelle des hallucinations, les modèles apportent parfois une réponse fausse, trompeuse ou décousue. Par exemple, lorsque Google a lancé ses Aperçus IA, proposant des réponses à part entière au-dessus de la plupart de ses résultats de recherche, quelques-uns d’entre eux ont été contestés en raison de conseils certes ridicules mais dangereux, comme ajouter de la colle à sa pizza pour que le fromage y adhère mieux.
2. Elle peut générer du contenu inapproprié
La plupart des grands modèles d’IA générative, tels que ChatGPT, Gemini et Stable Diffusion, ont des garde-fous pour empêcher les utilisateurs de générer du contenu inapproprié, qui montre par exemple de la nudité et de la violence. Toutefois, des internautes curieux et des chercheurs en ont testé les limites, poussant ces modèles à enfreindre leurs propres règles et politiques. Dans leur exploration de l’IA, les enfants peuvent donc être confrontés à du contenu inadapté à leur âge, un risque rappelé par Google dans son e-mail mentionné plus haut.
3. Les enfants peuvent l’utiliser pour blesser les autres
Grâce à l’IA, les enfants peuvent laisser libre cours à leur créativité, s’en servant pour écrire des histoires, produire des images… Malheureusement, certains – même s’ils représentent une minorité – peuvent aussi choisir de créer du contenu pour se moquer des autres. En effet, près d’un ado sur cinq a déjà utilisé cette technologie pour créer notamment des blagues ou taquiner une personne, et un sur dix pour générer du contenu à partir de la voix ou de l’image d’une personne. Hors de portée de Gemini, les deepfakes pornographiques – de fausses images ou vidéos à caractère sexuel créées à l’aide d’une simple photo – se multiplient, alors qu’un jeune sur huit connaît une personne ayant utilisé l’IA pour réaliser ou partager ces deepnudes selon une étude récente de Thorn. Ce qui peut commencer comme une petite « blague » innocente peut se transformer en harcèlement ou autre comportement illégal, la banalisation du recours aux outils d’IA à cette fin pouvant finir par prendre une tournure plus grave.
4. Elle peut remplacer un vrai confident
Le rôle de l’IA comme « personne » de confiance est à la fois positif et négatif : pour certains, l’utilisation d’agents conversationnels afin d’obtenir des conseils et parler de choses qu’ils n’osent pas aborder avec les autres peut être un moyen d’explorer leurs sentiments et d’avoir des retours. Les jeunes peuvent aimer le fait que les chatbots basés sur l’IA sont positifs par nature et s’abstiennent de tout jugement, tendant plutôt à flatter les utilisateurs ou à en répéter les idées de manière à leur donner un sentiment d’acceptation. Cela dit, préférer l’IA aux relations humaines peut devenir problématique, car ces bots ne sont pas des personnes, donc cette confiance peut entraver la création de véritables liens sociaux et affecter la façon dont on interagit avec les autres dans le monde réel. De premières recherches sur l’utilisation de l’IA à des fins de soutien émotionnel montrent qu’un recours excessif à ses agents conversationnels pourrait être corrélé à un sentiment accru de solitude et à une baisse de la socialisation.
5. Elle peut utiliser vos données
Google a expliqué que les requêtes des moins de 13 ans ne seraient pas utilisées pour entraîner ses systèmes d’IA, mais les jeunes doivent rester prudents quant aux renseignements qu’ils fournissent à ces modèles. Comme partout ailleurs sur Internet, la confidentialité des données est un problème, donc les enfants doivent veiller à ne jamais fournir à une IA des informations personnelles, telles que leur nom et leur adresse, ceux de leur école ou tout autre détail révélateur.
Peut-on désactiver Gemini sur les appareils des enfants ?
Si vous ne souhaitez pas que votre enfant accède à Gemini par le biais de Google Family Link, vous pouvez désactiver cette fonctionnalité dans les paramètres : dans l’application Family Link ou sur la page Web du service, sélectionnez le compte de votre enfant, puis rendez-vous dans Paramètres > Gemini > Applications Gemini et basculez le bouton.
Comment protéger les enfants utilisant Gemini ?
Certaines utilisations de l’IA présentent un véritable intérêt (et un côté amusant !), donc il est important de la faire découvrir aux jeunes d’une manière adaptée à leur âge, tout en les sensibilisant aux dangers de cette technologie. Voici quelques mesures que vous pouvez prendre pour protéger votre enfant lors de son utilisation de Gemini et d’autres modèles d’IA :
- Favorisez une communication ouverte : créez un environnement de confiance dans lequel votre enfant se sent à l’aise de discuter de ses expériences et de ses préoccupations en ligne.
- Encouragez un esprit critique : aidez votre enfant à développer sa capacité à remettre en cause l’authenticité du contenu disponible en ligne et à songer au rôle que l’IA a pu jouer dans sa création.
- Donnez la priorité à la confidentialité : examinez et mettez à jour les paramètres de confidentialité de votre enfant en sa compagnie pour vous assurer que tout le monde est à l’aise avec les informations qu’il ou elle partage en ligne.
- Bloquez les applications inappropriées : utilisez des outils tels que Qustodio pour bloquer et surveiller les applications d’IA qui ne présentent aucun avantage pour votre enfant ou pourraient être dangereuses, comme Character AI ou Talkie AI.
- Promouvez la notion de consentement : les outils d’IA peuvent être utilisés pour ridiculiser, intimider ou harceler. Assurez-vous que votre enfant comprend qu’il ne faut ni partager ses informations ou images personnelles avec des agents conversationnels basés sur l’IA, afin de protéger sa vie privée, ni partager celles des autres sans leur consentement.
- Gardez un œil sur son activité en ligne : des échanges excessifs avec des chatbots basés sur l’IA peuvent avoir un impact négatif sur les interactions sociales et la forme physique. Fixer des moments sans écran et rédiger un accord numérique familial peuvent faciliter l’adoption de bonnes habitudes technologiques.
Si vous pensez que votre enfant a une utilisation problématique, voire dangereuse, de l’IA générative, il est important d’aborder le sujet avec curiosité et compréhension plutôt qu’un ton accusateur. Entamez une conversation ouverte sur son activité en ligne, posez-lui des questions sur les outils qui l’intéressent et discutez des avantages et des inconvénients de cette technologie. Par ailleurs, vous pouvez l’accompagner dans son exploration, bien lui faire comprendre que vous êtes à son écoute en cas de questions ou de préoccupations et encourager des habitudes saines et durables.