Impossible de scroller bien longtemps sans découvrir une nouvelle manière dont l’intelligence artificielle (IA) transforme Internet. Malheureusement, certains types d’outils basés sur cette technologie et l’usage qu’en font les gens sont loin de présenter un aspect positif. Ainsi, l’une des tendances les plus récentes et les plus inquiétantes (mais peut-être inévitables) est un phénomène appelé « undress AI ». Jetons un coup d’œil à ses principales caractéristiques, à son utilisation – même par les enfants – et aux moyens d’en assurer la sécurité.
L’undress AI, c’est quoi ?
L’undress AI (littéralement « IA de déshabillage ») est une catégorie d’IA générative capable de dévêtir entièrement une personne sur une photo numérique. Une telle manipulation n’a rien de nouveau, puisqu’elle pouvait déjà être effectuée grâce à des logiciels comme Photoshop, mais cette nouvelle technologie permet de gagner en facilité, en rapidité et en réalisme. Il devient ainsi de plus en plus compliqué de démêler le vrai du faux, surtout d’un seul un coup d’œil.
Ces outils ne sont pas seulement utilisés par des personnes qui les recherchent activement : outre les sites Web offrant de tels services de manipulation, les applications de déshabillage sont aussi populaires et facilement accessibles par le biais de publicités sur les principaux réseaux sociaux.
Les uns et les autres violent les politiques de ces plateformes, mais certains créateurs font preuve d’une grande imagination pour en contourner les restrictions, si bien que votre enfant pourrait bien tomber dessus par hasard. Il est important de garder cela à l’esprit si vous découvrez qu’il ou elle a vu ou même téléchargé ce genre d’outils basés sur l’IA générative : accordez-lui le bénéfice du doute et ayez une conversation ouverte sur sa première exposition.
L’undress AI est-il légal ?
Non. Créer de fausses images intimes sans le consentement des personnes concernées est illégal dans la plupart des pays, et ce, quel que soit l’outil employé. D’ailleurs, si celles-ci montrent des mineurs, il s’agit de contenu à caractère pédopornographique, qu’il soit créé avec l’IA ou une autre technologie. La réglementation diffère quelque peu selon le pays, mais des restrictions et des lois visent à protéger les enfants presque partout :
Aux États-Unis
La loi Take It Down (littéralement « retirez-le ») interdit la publication d’images ou vidéos intimes de mineurs ou d’adultes non consentants, y compris tout contenu généré par l’IA (intime ou non) pour nuire à quelqu’un. Elle exige également que les plateformes retirent ce type d’éléments dans un délai de 48 heures après tout signalement par une victime.
En Australie
Un ensemble de lois fédérales et locales concerne la création et le partage non consentis de deepfakes (parfois appelés « hypertrucages ») sexuellement explicites. Le ou la commissaire à la sécurité en ligne peut agir au nom des victimes et ordonner la suppression de tout contenu préjudiciable. En septembre 2025, le gouvernement australien a même entamé des pourparlers sur l’interdiction complète des applications de déshabillage.
En Corée du Sud
La Corée du Sud a élaboré une série de lois particulièrement strictes qui couvrent la création, la consultation, la sauvegarde et la possession de deepfakes à caractère pédopornographique, avec des peines incluant plusieurs années de prison et des amendes importantes.
Au Royaume-Uni
Le Royaume-Uni a adopté un certain nombre de lois qui criminalisent la création de contenu à caractère pédopornographique avec l’IA. Après l’appel urgent lancé par la commissaire à l’enfance en avril 2025, le gouvernement britannique envisage également une interdiction complète des applications de déshabillage.
Dans l’Union européenne
Le Règlement sur les services numériques et le Règlement sur l’intelligence artificielle comprennent tous deux des clauses destinées à protéger les mineurs contre le matériel pédopornographique généré par l’IA et obligent les plateformes en ligne à répondre à des exigences spécifiques pour assurer la sécurité des jeunes dans les espaces virtuels.
Comment les outils d’undress AI sont-ils utilisés ?
Les outils d’undress AI et de deepfake sont le plus souvent utilisés pour créer du contenu à même de causer un préjudice émotionnel à une personne ou de nuire à sa réputation. Les adultes s’en servent souvent pour se prêter au revenge porn (aussi appelé « pornodivulgation ») et, dans certains cas, produire du matériel pédopornographique. Les ados, eux, y recourent pour créer des images non consenties de camarades de classe, voire d’enseignants et d’autres membres du personnel scolaire de leur établissement. Depuis 2023, plus de 30 incidents de ce type ont ainsi été signalés rien qu’aux États-Unis. À ce jour, il n’y a eu en revanche qu’un seul cas médiatisé d’un parent s’en ayant servi pour nuire à des camarades de son enfant.
Bien que de tels incidents puissent entraîner des conséquences dévastatrices, il est important de garder à l’esprit que tous les enfants n’utilisent pas ces outils avec de mauvaises intentions. Certains font preuve d’une simple curiosité ou voient cela comme une farce, sans réellement se rendre compte de l’impact juridique et émotionnel grave que leurs actes peuvent avoir sur eux – et sur les autres.
Ce que les parents doivent savoir
Bien que les outils d’undress AI et de deepfake enfreignent les règles de presque tous les réseaux sociaux, des publicités à leur sujet peuvent tout de même s’afficher lors de l’exploration d’un contenu inoffensif. Par ailleurs, les enfants risquent d’en voir sur des plateformes comme Discord, où des espaces fermés à l’instar des serveurs privés facilitent le partage de fichiers – et d’applications – inappropriés ou dangereux.
En général, les incidents rapportés dans la presse sont les cas les plus dramatiques de jeunes créant des photos dénudées de leurs camarades de classe. Celles-ci sont ensuite soit diffusées dans des discussions de groupe entre les élèves de la même école, soit partagées sur les réseaux sociaux et donc accessibles à un public plus large.
Puisque ce type d’outils évolue constamment et que de nouveaux sites Web ne cessent d’apparaître, nous ne savons pas exactement combien d’enfants y ront recours. Quoi qu’il en soit, les écoles ne sont pas épargnées. Votre enfant en a donc probablement entendu parler, même sans s’en être déjà servi. Selon certaines enquêtes récentes, 40-50 % des élèves américains savent même que ce genre de contenu circule dans leur établissement.
Ce que les enfants doivent savoir
Les deepfakes peuvent avoir de graves conséquences émotionnelles, scolaires, réputationnelles et juridiques. Certains pays font vite évoluer leurs lois, tandis que d’autres en appliquent de nouvelles pour faire face aux progrès rapides de l’IA. La création, la visualisation, le stockage et la diffusion de deepfakes à caractère pédopornographique sont considérés comme des comportements criminels dans la plupart du monde.
Alors que des images ou des vidéos peuvent engranger un grand nombre de vues en quelques minutes et qu’il est impossible de supprimer définitivement tout contenu publié sur Internet, l’impact sur la réputation d’un enfant peut être quasiment immédiat et durable. Même si les plateformes ou les autorités suppriment les éléments incriminés, il n’y a aucun moyen de savoir combien de fois ces derniers ont fait l’objet d’une capture d’écran pour être enregistrés ou partagés.
Par la suite, les victimes signalent souvent un traumatisme émotionnel à long terme, y compris les symptômes d’un trouble de stress post-traumatique (TSPT), ainsi que des difficultés scolaires causées par l’anxiété et une phobie scolaire.
À qui signaler un deepfake ?
- Effectuez immédiatement un signalement à la plateforme sur laquelle le contenu en question a été partagé (sans prendre de captures d’écran pour des raisons juridiques).
- Si vous estimez cela nécessaire, contactez la police locale.
- Si des élèves de la même école sont impliqués de quelque manière que ce soit, signalez-le-lui aussi.
De plus, il est important de parler à votre enfant avant de prendre des mesures sérieuses, surtout si les personnes impliquées dans la création et la diffusion d’un deepfake avec son visage sont des amis proches, des camarades de classe ou d’autres personnes de son âge. Demandez-lui comment il ou elle se sent et quelle serait l’issue idéale de cette situation à ses yeux. En outre, contactez son établissement – et adressez-vous à un professionnel de la santé mentale, si besoin – pour obtenir des conseils sur la façon de discuter avec les autres jeunes impliqués et leurs parents ou tuteurs.
Comment protéger votre enfant contre les deepfakes ?
Commencez par avoir des conversations ouvertes et adaptées à son âge sur la manière d’utiliser la technologie de manière sûre, respectueuse et éthique. Soulignez l’importance du consentement et de la vie privée dans les espaces numériques.
Vous pouvez également prendre les mesures suivantes :
- Interrogez l’école de votre enfant concernant ses politiques en matière de cyberharcèlement et d’IA. Renseignez-vous sur la manière de soutenir ses efforts visant à encadrer l’utilisation potentielle de ce type de technologie et à sensibiliser les autres familles à ce risque pour la sécurité en ligne.
- Apprenez à signaler les deepfakes sur les plateformes utilisées par votre enfant.
- Familiarisez-vous avec les lois en vigueur concernant la protection des victimes de cette pratique – par exemple, le Règlement sur les services numériques dans l’Union européenne.
- Utilisez des outils de contrôle parental comme Qustodio pour surveiller l’utilisation d’applications par votre enfant et rester au courant de ce qu’il ou elle pourrait voir en ligne. Vous pouvez vous en servir pour bloquer les sites Web alimentés par l’IA, recevoir des notifications sur les téléchargements de nouvelles applications et bloquer complètement celles basées sur cette technologie.
Comment parler du consentement numérique à votre enfant ?
Les conversations sur le consentement portent en fait sur le respect, la vie privée et le droit de contrôler ses informations personnelles.
Chez les plus jeunes, elles peuvent se concentrer sur la question de savoir si et quand il est acceptable de partager les photos d’une personne avec autrui ou des renseignements comme son adresse, son numéro de téléphone ou tout élément dont elle nous fait part dans un cadre individuel. D’ailleurs, il est tout aussi important de les aider à savoir, dès leur plus jeune âge, quel type d’informations personnelles ils peuvent divulguer ou non à leur sujet ou celui de leur famille.
À mesure que votre enfant grandit, montrez-lui comment fixer des limites dans toute situation où on pourrait lui demander des renseignements qu’il ou elle préférerait ne pas fournir. Avoir une réponse simple et standard peut être un bon commencement, par exemple : « Désolé(e), mais je ne donne pas ce genre d’information en ligne. »
Voici quelques idées pour amorcer la conversation avec votre enfant sur les éléments que l’on peut partager en ligne ou non :
- « Peut-on partager ses mots de passe avec d’autres personnes ? »
- « Y a-t-il des situations dans lesquelles on peut faire une capture d’écran d’un message ou d’une photo de quelqu’un d’autre ? »
- « Que dire à un(e) bon(ne) ami(e) qui te demande des informations personnelles que tu ne veux vraiment pas lui donner ? »
- « Comment expliquer à ton ami(e) que les informations que tu lui as données doivent rester entre vous ? »
- « Selon toi, comment un inconnu pourrait-il essayer de te convaincre de lui envoyer des informations personnelles ou une photo inappropriée ? »
Les outils d’undress AI et de deepfake constituent une tendance inquiétante au carrefour entre technologie, risques graves pour la vie privée, consentement et bien-être. Heureusement, sensibiliser votre enfant, recourir à un contrôle parental et entretenir un dialogue ouvert sont des mesures très efficaces pour garantir sa sécurité. De plus, en vous tenant au courant, vous pouvez l’aider à faire face aux complexités du monde virtuel sans risque et de manière responsable, quel que soit le niveau d’avancement de la technologie.