Deepfakes porno : comment parler à vos enfants des fausses images explicites

Si le jour n’est pas encore arrivé, il arrive : vous devez parler à votre enfant des deepfakes explicites.

Le problème aurait pu paraître abstrait jusqu’à ce que de fausses images pornographiques de Taylor Swift, générées par l’intelligence artificielle, est devenu viral sur la plateforme de médias sociaux X/Twitter. Désormais, le problème ne peut tout simplement plus être ignoré, affirment les experts en ligne sur la sécurité des enfants.

“Quand cela arrive à (Swift), je pense que les enfants et les parents commencent à réaliser que personne n’est à l’abri de cela”, déclare Laura Ordoñez, rédactrice en chef et responsable des médias numériques et de la famille chez Common Sense Media.

Qu’il s’agisse d’expliquer le concept des deepfakes et des abus basés sur l’IA, de parler de la douleur que ces images causent aux victimes ou d’aider votre enfant à développer les capacités de pensée critique nécessaires pour prendre des décisions éthiques concernant les deepfakes, les parents peuvent et doivent aborder de nombreux sujets. dans les conversations en cours sur le sujet.

Avant de commencer, voici ce que vous devez savoir :

1. Vous n’avez pas besoin d’être un expert en deepfakes pour en parler.

Adam Dodge, fondateur de Le parent féru de technologieaffirme que les parents qui ressentent le besoin de bien comprendre les deepfakes avant d’avoir une conversation avec leur enfant n’ont pas à s’inquiéter de ressembler ou de devenir un expert.

Au lieu de cela, tout ce qui est nécessaire est une compréhension de base du concept selon lequel les logiciels et les algorithmes basés sur l’IA facilitent incroyablement la création de deepfakes explicites ou pornographiques réalistes, et qu’une telle technologie est facile d’accès en ligne. En fait, des enfants aussi jeunes que les élèves du primaire peuvent rencontrer des applications ou des logiciels dotés de cette capacité et les utiliser pour créer des deepfakes avec peu de défis ou d’obstacles techniques.

“Ce que je dis aux parents, c’est : ‘Écoutez, vous devez comprendre à quelle fréquence et à quel point les enfants sont exposés à cette technologie, que cela se produit plus tôt que vous ne le pensez, et comprendre à quel point c’est dangereux.'”

Dodge affirme que les parents doivent être prêts à faire face à la possibilité que leur enfant soit ciblé par la technologie ; qu’ils verront du contenu inapproprié ; ou qu’ils participeront à la création ou au partage de fausses images explicites.

2. Faites-en une conversation, pas une conférence.

Si ces possibilités vous inquiètent suffisamment, essayez d’éviter de vous lancer dans une discussion hâtive sur les deepfakes. Au lieu de cela, Ordoñez recommande d’aborder le sujet de manière ouverte et sans jugement, en demandant à votre enfant ce qu’il sait ou a entendu parler des deepfakes.

Elle ajoute qu’il est important de considérer les abus basés sur les images de l’IA comme une forme de manipulation en ligne qui existe sur le même spectre que la désinformation ou la désinformation. Dans ce cadre, réfléchir aux deepfakes devient un exercice de pensée critique.

Ordoñez dit que les parents peuvent aider leur enfant découvrez les signes indiquant que les images ont été manipulées. Bien que l’évolution rapide de l’IA signifie que certains de ces signes révélateurs n’apparaissent plus, Ordoñez dit qu’il est toujours utile de souligner que tout deepfake (pas seulement le type explicite) peut être identifiable par une décoloration du visage, un éclairage qui semble éteint et un flou là où. le cou et les cheveux se rejoignent.

Les parents peuvent également apprendre aux côtés de leur enfant, explique Ordoñez. Cela peut impliquer de lire et de parler ensemble de faux contenus non explicites générés par l’IA, comme la chanson Avoir le coeur sur la main, sorti en mai 2023, que prétend utiliser des versions IA des voix de Drake et The Weeknd. Bien que cette histoire ait des enjeux relativement faibles pour les enfants, elle peut susciter une conversation significative sur ce que cela pourrait ressentir si votre voix était utilisée sans votre consentement.

Les parents pourraient répondre à un quiz en ligne avec leur enfant qui demande au participant d’identifier correctement quel visage est réel et lequel est généré par l’IA, une autre manière à faible enjeu de confronter ensemble la facilité avec laquelle les images générées par l’IA peuvent tromper le spectateur.

Le but de ces activités est d’apprendre à votre enfant comment entamer un dialogue continu et développer des capacités de pensée critique qui seront sûrement mises à l’épreuve lorsqu’il rencontrera des deepfakes explicites et la technologie qui les crée.

3. Mettez la curiosité de votre enfant à l’égard des deepfakes dans le bon contexte.

Même si les deepfakes explicites constituent des abus numériques et de la violence contre leur victime, votre enfant ne le comprend peut-être pas pleinement. Au lieu de cela, ils pourraient être curieux de connaître la technologie, et même désireux de l’essayer.

Dodge dit que même si cela est compréhensible, les parents imposent régulièrement des limites raisonnables à la curiosité de leurs enfants. L’alcool, par exemple, est tenu hors de leur portée. Les films classés R sont interdits jusqu’à ce qu’ils atteignent un certain âge. Ils ne sont pas autorisés à conduire sans instruction et expérience appropriées.

Les parents devraient penser à la technologie deepfake de la même manière, déclare Dodge : “Vous ne voulez pas punir les enfants pour leur curiosité, mais s’ils ont un accès non filtré à Internet et à l’intelligence artificielle, cette curiosité va les conduire sur des routes dangereuses.”

4. Aidez votre enfant à explorer les conséquences des deepfakes.

Les enfants peuvent considérer les deepfakes non explicites comme une forme de divertissement. Les préadolescents et les adolescents peuvent même croire à tort l’argument avancé par certains : selon lequel les deepfakes pornographiques ne sont pas nocifs parce qu’ils ne sont pas réels.

Néanmoins, ils peuvent être persuadés de considérer les deepfakes explicites comme un abus basé sur l’image de l’IA lorsque la discussion intègre des concepts tels que le consentement, l’empathie, la gentillesse et l’intimidation. Dodge dit qu’invoquer ces idées tout en discutant de deepfakes peut attirer l’attention d’un enfant sur la victime.

Si, par exemple, un adolescent sait demander la permission avant de prendre un objet physique à un ami ou un camarade de classe, il en va de même pour les objets numériques, comme les photos et vidéos publiées sur les réseaux sociaux. Utiliser ces fichiers numériques pour créer un deepfake nu de quelqu’un d’autre n’est pas une blague ou une expérience inoffensive, mais une sorte de vol qui peut entraîner de profondes souffrances pour la victime.

De même, Dodge affirme que, tout comme un jeune n’agresserait pas quelqu’un dans la rue à l’improviste, cela ne correspond pas à ses valeurs d’agresser quelqu’un virtuellement.

“Ces victimes ne sont ni fabriquées ni fausses”, déclare Dodge. “Ce sont de vraies personnes.”

Les femmes, en particulieront été ciblé par la technologie qui crée des deepfakes explicites.

En général, Ordoñez dit que les parents peuvent parler de ce que signifie être un bon citoyen numérique, en aidant leur enfant à réfléchir à l’opportunité d’induire les gens en erreur, aux conséquences des deepfakes et à la manière dont le fait de voir ou d’être victime des images pourrait faire ressentir aux autres.

5. Modélisez le comportement que vous souhaitez voir.

Ordoñez note que les adultes, y compris les parents, ne sont pas à l’abri de participer avec enthousiasme à la dernière tendance numérique sans réfléchir à ses implications. Prenons, par exemple, la rapidité avec laquelle les adultes ont commencé à faire des choses cool. Autoportraits IA à l’aide de l’application Lensa fin 2022. Au-delà du battage médiatique, il y avait d’importantes préoccupations concernant la confidentialité, les droits des utilisateurs et le potentiel de l’application à voler ou à déplacer des artistes.

Des moments comme ceux-ci sont le moment idéal pour que les parents réfléchissent à leurs propres pratiques numériques et modélisent le comportement qu’ils aimeraient que leurs enfants adoptent, explique Ordoñez. Lorsque les parents prennent le temps de réfléchir de manière critique à leurs choix en ligne et partagent les enseignements de cette expérience avec leur enfant, cela démontre comment ils peuvent adopter la même approche.

6. Utilisez le contrôle parental, mais ne pariez pas dessus.

Lorsque les parents entendent parler des dangers que représentent les deepfakes, Ordoñez dit qu’ils souhaitent souvent une « solution miracle » pour éloigner leur enfant des applications et des logiciels qui déploient cette technologie.

Il est important d’utiliser des contrôles parentaux qui restreignent l’accès à certains téléchargements et sites, explique Dodge. Cependant, ces contrôles ne sont pas infaillibles. Les enfants peuvent trouver et trouveront un moyen de contourner ces restrictions, même s’ils ne réalisent pas ce qu’ils font.

De plus, Dodge indique qu’un enfant peut voir des deepfakes ou rencontrer la technologie chez un ami ou sur l’appareil mobile de quelqu’un d’autre. C’est pourquoi il est toujours essentiel d’avoir des conversations sur les abus basés sur les images de l’IA, “même si nous imposons de fortes restrictions via le contrôle parental ou si nous retirons les appareils la nuit”, explique Dodge.

7. Donnez du pouvoir au lieu de faire peur.

La perspective que votre enfant blesse son pair en abusant de l’image de l’IA, ou en devienne lui-même victime, est effrayante. Mais Ordoñez met en garde contre l’utilisation de tactiques alarmistes pour décourager un enfant ou un adolescent d’interagir avec la technologie et le contenu.

Lorsqu’elle s’adresse aux jeunes filles, en particulier, dont les photos et vidéos sur les réseaux sociaux pourraient être utilisées pour générer des deepfakes explicites, Ordoñez suggère de leur parler de ce que cela leur fait de publier des images d’elles-mêmes et des risques potentiels. Ces conversations ne devraient pas rejeter la faute sur les filles qui souhaitent participer aux médias sociaux. Cependant, parler des risques peut aider les filles à réfléchir à leurs propres paramètres de confidentialité.

Même s’il n’y a aucune garantie qu’une photo ou une vidéo d’eux ne sera pas utilisée contre eux à un moment donné, ils peuvent se sentir responsabilisés en faisant des choix intentionnels sur ce qu’ils partagent.

Et tous les adolescents et adolescents peuvent bénéficier de savoir que la rencontre avec une technologie capable de créer des deepfakes explicites, à une période de développement où ils sont très vulnérables à la prise de décisions irréfléchies, peut conduire à des choix qui nuisent gravement aux autres, explique Ordoñez.

Encourager les jeunes à apprendre à prendre du recul et à se demander comment ils se sentent avant de faire quelque chose comme créer un deepfake peut faire une énorme différence.

“Lorsque vous prenez du recul, (nos enfants) ont cette conscience, il leur suffit d’être responsabilisés, soutenus et guidés dans la bonne direction”, explique Ordoñez.

Scroll to Top