De fausses images explicites de Taylor Swift prouvent que les lois n’ont pas suivi le rythme de la technologie, selon les experts

[ad_1]

Des photos explicites générées par l’IA de l’un des artistes les plus célèbres au monde se sont rapidement répandues sur les réseaux sociaux cette semaine, soulignant une fois de plus ce que les experts décrivent comme un besoin urgent de sévir contre les technologies et les plateformes qui permettent le partage d’images nuisibles.

De fausses photos de Taylor Swift, représentant l’auteur-compositeur-interprète dans des positions sexuellement suggestives, ont été vues des dizaines de millions de fois sur X, anciennement connu sous le nom de Twitter, avant d’être supprimées.

Une photo, partagée par un seul utilisateur, a été vue plus de 45 millions de fois avant la suspension du compte. Mais entre-temps, la photo largement partagée avait été immortalisée ailleurs sur Internet.

La situation a montré à quel point l’IA est avancée – et facilement accessible – et a relancé les appels au Canada et aux États-Unis en faveur de meilleures lois.

“Si je peux citer Taylor Swift, X marque l’endroit où nous nous sommes effondrés“, a déclaré Kristen Thomasen, professeure adjointe à l’Université de la Colombie-Britannique.

“Là où nous devrions accorder plus d’attention dans la loi, c’est aussi désormais sur les concepteurs qui créent les outils qui rendent cela si facile, et (sur) les sites Web qui permettent de faire apparaître cette image… et ensuite d’être vue. par des millions de personnes”, a déclaré Thomasen.

Image de Barak Obama sur l’écran d’un ordinateur portable.
Cette image, réalisée à partir d’une fausse vidéo mettant en vedette l’ancien président américain Barack Obama, montre des éléments de la technologie de cartographie faciale qui permet à quiconque de réaliser des vidéos de personnes réelles semblant dire des choses qu’ils n’ont jamais dites. (The Associated Press)

Après que les photos pornographiques représentant Swift ont commencé à apparaître, les fans de l’artiste ont inondé la plateforme de messages « Protégez Taylor Swift », dans le but d’enterrer les images afin de les rendre plus difficiles à trouver via la recherche.

Dans un message, X a déclaré que ses équipes « surveillaient de près » le site pour voir si des photos continueraient à apparaître.

“Nos équipes suppriment activement toutes les images identifiées et prennent les mesures appropriées contre les comptes responsables de leur publication”, indique le message.

Ni Swift ni son publiciste n’ont commenté les images.

La porte-parole de la Maison Blanche aux États-Unis, Karine Jean-Pierre, a déclaré que les sociétés de médias sociaux ont un rôle important à jouer dans la prévention de la propagation de la désinformation et des images intimes non consensuelles, et a déclaré que « l’application laxiste » par les sociétés de leurs propres règles avait un impact disproportionné sur les femmes et les filles.

“C’est très alarmant, nous allons donc faire ce que nous pouvons pour résoudre ce problème”, a déclaré Jean-Pierre aux journalistes vendredi.

REGARDER | La Maison Blanche « alarmée » par les images explicites de Taylor Swift générées par l’IA :

La Maison Blanche « alarmée » par les images explicites de Taylor Swift générées par l’IA sur les réseaux sociaux

La porte-parole de la Maison Blanche américaine, Karine Jean-Pierre, a répondu à une question d’un journaliste sur les images fausses et explicites de Taylor Swift générées par l’intelligence artificielle et diffusées sur les réseaux sociaux, affirmant que les sociétés de médias sociaux ont un rôle clair dans l’application des politiques visant à empêcher ce type de contenu. d’être distribués sur leurs plateformes.

Alors que l’industrie de l’IA continue de croître, les entreprises cherchant à partager les bénéfices ont conçu des outils permettant aux utilisateurs peu expérimentés de créer des images et des vidéos à l’aide d’instructions simples. Ces outils ont été populaires et bénéfiques dans certains secteurs, mais ils facilitent également la création de ce que l’on appelle des deepfakes, c’est-à-dire des images qui montrent une personne faisant quelque chose qu’elle n’a pas réellement fait.

Le groupe de détection de deepfakes Reality Defender a déclaré avoir suivi un déluge de matériel pornographique non consensuel représentant Swift, en particulier sur X. Certaines images ont également été diffusées sur Facebook, propriété de Meta, et sur d’autres plateformes de médias sociaux.

“Malheureusement, ils se sont propagés à des millions et des millions d’utilisateurs au moment où certains d’entre eux ont été supprimés”, a déclaré Mason Allen, responsable de la croissance de Reality Defender.

Les chercheurs ont trouvé plusieurs dizaines d’images uniques générées par l’IA. Les plus largement partagées étaient liées au football, montrant un Swift peint ou ensanglanté qui l’objectivait et, dans certains cas, suggérait l’infliger des dommages violents.

Les outils ouvrent la voie à une « nouvelle ère » de la cybercriminalité

“L’un des plus gros problèmes est qu’il s’agit simplement d’un outil incroyable… et que maintenant tout le monde peut l’utiliser”, a déclaré Steve DiPaola, professeur d’intelligence artificielle à l’Université Simon Fraser.

Une étude réalisée en 2019 par DeepTrace Labs, une société de cybersécurité basée à Amsterdam, a découvert que 96 pour cent du contenu vidéo deepfake en ligne était du matériel pornographique non consentant. Il a également révélé que les quatre principaux sites Web dédiés à la pornographie deepfake ont reçu plus de 134 millions de vues sur des vidéos ciblant des centaines de célébrités féminines à travers le monde.

REGARDER | Les écoles pourraient faire davantage pour sensibiliser les jeunes aux méfaits en ligne :

Les jeunes ont besoin d’une meilleure éducation sur les risques de violences sexuelles en ligne, selon un rapport

La violence et le harcèlement sexuels facilités par la technologie sont en hausse au Canada et un nouveau rapport suggère que les écoles pourraient faire davantage pour sensibiliser les jeunes aux risques.

Au Canada, la police a ouvert une enquête en décembre après de fausses photos nues d’étudiantes une école d’immersion française de la 7e à la 12e année à Winnipeg ont été partagés en ligne. Plus tôt cette année-là, un Québécois a été condamné à la prison pour avoir utilisé l’IA pour créer sept vidéos deepfake de pornographie juvénile – il s’agirait de la première peine du genre prononcée par les tribunaux canadiens.

«Les policiers sont clairement entrés dans une nouvelle ère de cybercriminalité», a écrit le juge de la Cour du Québec Benoit Gagnoni dans son jugement.

Les juges canadiens travaillent avec des lois désuètes

Après le ciblage de Swift cette semaine, les politiciens américains ont appelé à de nouvelles lois pour criminaliser la création d’images deepfake.

Le Canada pourrait également avoir recours à ce genre de législation, a déclaré Thomasen de l’UBC.

Certaines lois canadiennes traitent de la question plus large de la distribution non consensuelle d’images intimes, mais la plupart de ces lois ne font pas explicitement référence aux deepfakes, car elles ne constituent pas un problème.

Taylor Swift posant devant un mur sur lequel est écrit Taylor Swift The Eras Tour.
De fausses images de Swift, présentées ici en octobre 2023, ont circulé auprès de millions d’utilisateurs de réseaux sociaux avant d’être supprimées. (Valérie Macon/AFP/Getty Images)

Cela signifie que les juges chargés des deepfakes doivent décider comment appliquer les anciennes lois aux nouvelles technologies.

“Il s’agit d’une violation tellement flagrante de la dignité d’une personne, du contrôle de son corps, du contrôle de ses informations, qu’il m’est difficile d’imaginer que cela ne puisse pas être interprété de cette façon”, a déclaré Thomasen. “Mais il y a un certain désaccord juridique à ce sujet et nous attendons des éclaircissements de la part des tribunaux.”

La nouvelle Intimate Images Protection Act, qui entre en vigueur lundi en Colombie-Britannique, inclut des références aux deepfakes et donnera aux procureurs plus de pouvoir pour poursuivre les personnes qui publient des images intimes d’autrui en ligne sans consentement – ​​mais elle n’inclut pas les références aux personnes qui les créent ou aux réseaux sociaux. sociétés de médias.

[ad_2]

Source link

Scroll to Top