Meta étiquetera les images générées par l’IA d’OpenAI, de Google et d’autres sociétés

[ad_1]

Meta Platforms commencera à détecter et à étiqueter les images générées par les services d’intelligence artificielle d’autres sociétés dans les mois à venir, en utilisant un ensemble de marqueurs invisibles intégrés aux fichiers, a déclaré mardi son plus haut responsable politique.

Meta appliquera les étiquettes à tout contenu portant les marqueurs publié sur ses services Facebook, Instagram et Threads, dans le but de signaler aux utilisateurs que les images – qui ressemblent dans de nombreux cas à de vraies photos – sont en réalité des créations numériques, a déclaré le président de la société mondiale. affaires, Nick Clegg, a écrit dans un article de blog.

L’entreprise étiquette déjà tout contenu généré à l’aide de ses propres outils d’IA.

Une fois le nouveau système opérationnel, Meta fera de même pour les images créées sur les services gérés par OpenAI, Microsoft, Adobe, Midjourney, Shutterstock et Google d’Alphabet, a déclaré Clegg.

L’annonce donne un premier aperçu d’un système émergent de normes que les entreprises technologiques développent pour atténuer les dommages potentiels associés aux technologies d’IA générative, qui peuvent cracher du contenu faux mais d’apparence réaliste en réponse à de simples invites.

L’approche s’appuie sur un modèle établi au cours de la dernière décennie par certaines des mêmes sociétés pour coordonner la suppression des contenus interdits sur toutes les plateformes, y compris les représentations de violence de masse et d’exploitation des enfants.

Technologie d’étiquetage audio et vidéo encore en développement

Dans une interview, Clegg a déclaré à Reuters qu’il était convaincu que les entreprises pouvaient étiqueter de manière fiable les images générées par l’IA à ce stade, mais a déclaré que les outils permettant de marquer le contenu audio et vidéo étaient plus compliqués et toujours en cours de développement.

“Même si la technologie n’est pas encore complètement mature, en particulier en ce qui concerne l’audio et la vidéo, l’espoir est que nous puissions créer un sentiment d’élan et d’incitation pour que le reste de l’industrie suive”, a déclaré Clegg.

REGARDER | Comment les vidéos générées par l’IA peuvent être utilisées comme arme lors des élections :

Pouvez-vous repérer le deepfake ? Comment l’IA menace les élections

De fausses vidéos générées par l’IA sont utilisées à des fins d’escroqueries et de gags sur Internet, mais que se passe-t-il lorsqu’elles sont créées pour interférer dans les élections ? Catharine Tunney de CBC explique comment la technologie peut être utilisée comme arme et examine si le Canada est prêt pour une élection truquée.

Entre-temps, a-t-il ajouté, Meta commencerait à exiger des utilisateurs qu’ils étiquetent leur propre contenu audio et vidéo modifié et appliquerait des sanctions s’ils ne le faisaient pas. Clegg n’a pas décrit les sanctions.

Il a ajouté qu’il n’existait actuellement aucun mécanisme viable pour étiqueter le texte écrit généré par des outils d’IA comme ChatGPT.

“Ce navire a navigué”, a déclaré Clegg.

Un porte-parole de Meta a refusé de dire si la société appliquerait des étiquettes au contenu génératif d’IA partagé sur son service de messagerie crypté WhatsApp.

Le conseil de surveillance indépendant de Meta a réprimandé lundi la politique de l’entreprise concernant les vidéos falsifiées de manière trompeuse, affirmant qu’elle était trop étroite et que le contenu devait être étiqueté plutôt que supprimé. Clegg a déclaré qu’il était globalement d’accord avec ces critiques.

Le conseil d’administration avait raison, a-t-il déclaré, que la politique actuelle de Meta “n’est tout simplement pas adaptée à un environnement où vous allez avoir beaucoup plus de contenu synthétique et de contenu hybride qu’auparavant”.

Il a cité le nouveau partenariat d’étiquetage comme preuve que Meta allait déjà dans la direction proposée par le conseil d’administration.

[ad_2]

Source link

Scroll to Top