Cet article est réel, mais les deepfakes générés par l’IA semblent sacrément proches et escroquent les gens

[ad_1]

Est-il étonnant que des célébrités canadiennes comme la chef de télévision Mary Berg, le crooner Michael Bublé, le comédien Rick Mercer et la mégastar du hockey Sidney Crosby révèlent enfin leurs secrets de réussite financière ? Autrement dit, jusqu’à ce que la Banque du Canada tente de les arrêter.

Bien sûr, rien de tout cela n’est vrai, mais il s’agissait du sac figuratif de haricots magiques que des escrocs apparents sur les réseaux sociaux essayaient de vendre aux gens, incitant les utilisateurs à cliquer sur des messages sensationnels – Berg en état d’arrestation, Bublé emmené – et les conduisant à ce qui ressemble, à première vue, à un reportage légitime sur le site Web de CTV News.

Si vous êtes encore plus intrigué par ce qui semble être un article généré par l’IA, vous aurez amplement l’occasion de cliquer sur les nombreux liens – environ 225 sur une seule page – qui vous invitent à vous inscrire et à remettre votre premier investissement de 350 $, ce qui serait multiplié par plus de 10 en seulement sept jours.

Ce ne sont que les derniers d’une série de fausses publicités, d’articles et de vidéos exploitant les noms, les images, les séquences et même les voix d’éminents Canadiens pour promouvoir des projets d’investissement ou de cryptomonnaie.

Les avocats spécialisés dans les deepfakes et les contenus générés par l’IA préviennent qu’ils disposent actuellement de peu de recours juridiques et que les lois canadiennes n’ont pas progressé aussi rapidement que la technologie elle-même.

Les escroqueries financières et les stratagèmes s’appropriant l’image de personnes célèbres ne sont pas nouveaux, mais l’utilisation de la technologie d’IA générative en évolution rapide apporte « une nouvelle tournure à un concept assez ancien », a déclaré l’avocate Molly Reynolds, associée chez Torys LLP à Toronto.

Et ça va empirer avant de s’améliorer. Développer les outils et les lois pour empêcher que cela ne se produise est un jeu de rattrapage que nous sommes déjà en train de perdre, a-t-elle déclaré.

ÉCOUTER | Ce que vous devez savoir sur les publicités deepfake sur les réseaux sociaux :

Matinée d’information – Nouvelle-Écosse7h01Implications des fausses publicités frauduleuses

Vous les avez probablement vus si vous passez du temps en ligne. Des publicités qui montrent un animateur de CBC, ou une personnalité comme Elon Musk, en train de se lancer dans une sorte de stratagème pour devenir riche rapidement. Ils entrent dans la catégorie des « deep fakes », ou vidéos générées par l’IA. Notre chroniqueuse technique Nur Zincir-Heywood se penche sur cette question.

Détection des deepfakes

Bien qu’il existe de nombreux contenus sur Internet qui présentent des signes évidents d’être générés par l’IA, le professeur d’informatique de l’Université d’Ottawa, WonSook Lee, a déclaré que certains d’entre eux sont si bons maintenant qu’il devient beaucoup plus difficile de discerner ce qui est réel.

Elle a déclaré il y a quelques années encore qu’elle pouvait immédiatement détecter une image générée par l’IA ou une vidéo deepfake d’une personne simplement en y jetant un coup d’œil et en remarquant des différences de pixellisation ou de composition. Mais certains programmes peuvent désormais créer des photos et des vidéos presque parfaites.

Ce qui n’est pas parfaitement généré peut être modifié davantage avec un logiciel de retouche photo et vidéo, a-t-elle ajouté.

Tandis que nous en apprenons davantage sur l’IA, elle devient également plus intelligente.

“Si nous trouvons une méthode pour détecter les deepfakes, nous aidons les deepfakes à s’améliorer”, a-t-elle déclaré.

MONTRE | Ian Hanomansing, du National, s’attaque aux deepfakes de lui-même :

N’importe qui peut être truqué dans une publicité frauduleuse. Même Ian Hanomansing

Les fraudeurs se tournent vers des contrefaçons de personnalités publiques de confiance pour récupérer votre argent via de fausses publicités en ligne. Ian Hanomansing du National en fait partie. Il a découvert ce que dit la loi et ce que font les sociétés de médias sociaux à ce sujet.

Puissance des étoiles

Il semble que X ait réduit dans une certaine mesure l’essaim de publicités frauduleuses de célébrités canadiennes et suspendu certains – mais pas tous – des comptes qui les partageaient. CBC News a tenté de contacter un porte-parole de X Corp., la société mère de la plateforme de médias sociaux, mais n’a reçu qu’une réponse automatisée.

X et d’autres sociétés d’hébergement de réseaux sociaux et de sites Web peuvent avoir des politiques visant à prévenir le spam et les escroqueries financières sur leurs plateformes. Mais Reynolds a déclaré qu’ils étaient confrontés à une “question d’obligations morales par rapport aux obligations légales”.

C’est parce qu’il n’existe pas beaucoup d’obligations légales qui incitent les plateformes à supprimer les documents frauduleux, a-t-elle expliqué.

“Il y a des individus qui sont profondément touchés, sans recours juridique, sans aide des entreprises technologiques et peut-être sans un grand réseau social, vous savez, sur lequel s’appuyer comme Taylor Swift”, a déclaré Reynolds.

Après tout, les Canadiens éminents n’exercent pas autant d’influence que Taylor Swift. S’ils le faisaient, l’histoire se déroulerait peut-être différemment.

La propagation rapide de images sexualisées générées par l’IA de la superstar de la musique pop le mois dernier a incité les sociétés de médias sociaux à agir presque immédiatement. Même la Maison Blanche a pris la parole.

X a rapidement supprimé les images et bloqué les recherches sur le nom de Swift. En quelques jours, les législateurs américains a déposé un projet de loi pour lutter contre une telle pornographie deepfake.

MONTRE | Rôle des sociétés de médias sociaux dans la lutte contre la propagation des deepfakes sexualisés :

La Maison Blanche « alarmée » par les images explicites de Taylor Swift générées par l’IA sur les réseaux sociaux

La porte-parole de la Maison Blanche américaine, Karine Jean-Pierre, a répondu à une question d’un journaliste sur les images fausses et explicites de Taylor Swift générées par l’intelligence artificielle et diffusées sur les réseaux sociaux, affirmant que les sociétés de médias sociaux ont un rôle clair dans l’application des politiques visant à empêcher ce type de contenu. d’être distribués sur leurs plateformes.

Mais Reynolds a déclaré que ce ne sont pas seulement les situations impliquant des images sexualisées et non consensuelles qui peuvent causer du tort, en particulier lorsqu’il s’agit de personnes dont les noms et les visages sont leurs marques.

CBC News a demandé des entrevues avec Berg et Mercer pour savoir si l’un ou l’autre avait pris des mesures en réponse aux fausses publicités s’appropriant leur image. Mercer a refusé d’être interviewé pour cette histoire. Le publiciste de Berg a transmis la demande à la société mère de CTV, Bell Média, qui l’a refusée.

ÉCOUTER | Quel impact les deepfakes de Taylor Swift auront-ils sur les lois sur l’IA :

13h52Les deepfakes de Taylor Swift AI inciteront-ils enfin les gouvernements à agir ?

La semaine dernière, des images explicites générées par l’IA à l’effigie de Taylor Swift ont été partagées sur X, anciennement connu sous le nom de Twitter, sans son consentement. Ces photos ont été vues des millions de fois avant d’être retirées. Les journalistes Sam Cole et Melissa Heikkilä – qui suivent la montée des deepfakes depuis des années – expliquent pourquoi cette histoire a touché une corde sensible à Hollywood et à Washington.

Nouveau paysage juridique

Que quelqu’un soit célèbre n’a aucune importance si votre image est utilisée d’une manière à laquelle vous n’avez pas consenti, a déclaré Pablo Tseng, un avocat basé à Vancouver spécialisé en propriété intellectuelle chez McMillan LLP.

“Vous contrôlez la façon dont vous devez être présenté”, a déclaré Tseng, associé chez McMilllan LLP. “La loi considérera toujours cela comme un tort commis contre vous. Bien sûr, la question est : pensez-vous que cela vaut la peine de poursuivre cela devant les tribunaux ?”

Le Canada n’a pas suivi l’exemple des États-Unis en matière de nouvelle législation sur les deepfakes, mais il existe certains délits existants – des lois principalement établies par des juges dans le but d’indemniser les personnes ayant subi des actes répréhensibles – qui pourraient éventuellement être appliquées dans le cadre d’un procès impliquant l’IA. généré des deepfakes, selon Tseng.

Le délit d’appropriation illicite de la personnalité, a-t-il dit, pourrait s’appliquer car il s’agit souvent d’une image de quelqu’un manipulée numériquement ou greffée sur une autre image.

Le délit de fausse lumière, qui concerne la fausse représentation publique d’une personne, est une option plus récente basée sur le droit américain et qui a été reconnue pour la première fois au Canada devant la Cour supérieure. en 2019. Mais jusqu’à présent, cela n’a été reconnu que dans deux provinces (la Colombie-Britannique étant l’autre).

MONTRE | Les conséquences de la falsification de photos de personnalités :

Quand la falsification de l’IA nous a trompés | À propos de ça

Andrew Chang détaille les conséquences de la falsification de photos très médiatisées après que quelques images récentes d’IA soient devenues virales : le pape en doudoune et l’ancien président américain Donald Trump arrêté.

Jouer le long jeu

Quiconque souhaite engager une action en justice concernant la production et la distribution de deepfakes devra y participer sur le long terme, a déclaré Reynolds. Toute affaire prendrait du temps à être examinée par le système judiciaire – et cela risquerait de coûter cher.

Le combat peut cependant s’avérer payant.

Reynolds a souligné un récent recours collectif contre Meta sur les publicités « Sponsored Stories » sur Facebook, entre 2011 et 2014, qui généraient des mentions en utilisant les noms et les photos de profil des utilisateurs pour promouvoir des produits sans leur consentement.

Meta a proposé le mois dernier un règlement de 51 millions de dollars aux utilisateurs au Canada. Les avocats estiment que 4,3 millions de personnes dont le vrai nom ou la photo a été utilisé dans un article sponsorisé pourraient être admissibles.

“Ce n’est pas une solution particulièrement rapide pour les particuliers, mais elle peut être plus rentable lorsqu’il s’agit d’un recours collectif”, a déclaré Reynolds.

Mais la quête de justice ou de dommages-intérêts nécessite également de savoir qui porte la responsabilité de ces escroqueries deepfake. Lee, de l’Université d’Ottawa, a déclaré que ce qui est déjà un défi deviendra presque impossible à réaliser avec de nouveaux progrès dans la technologie de l’IA générative.

Une grande partie des recherches publiées sur l’intelligence artificielle incluent un code source librement accessible, a-t-elle expliqué, ce qui signifie que toute personne possédant le savoir-faire peut créer son propre programme sans aucune sorte de marqueurs traçables.

MONTRE | Que se passe-t-il lorsque des deepfakes sont utilisés pour interférer dans les élections :

Pouvez-vous repérer le deepfake ? Comment l’IA menace les élections

De fausses vidéos générées par l’IA sont utilisées à des fins d’escroqueries et de gags sur Internet, mais que se passe-t-il lorsqu’elles sont créées pour interférer dans les élections ? Catharine Tunney de CBC explique comment la technologie peut être utilisée comme arme et examine si le Canada est prêt pour une élection truquée.

[ad_2]

Source link

Scroll to Top