Meta veut un label pour permettre de détecter les images créées par l'IA
Meta a déclaré mardi qu'elle travaillait avec d'autres entreprises technologiques sur des normes qui lui permettraient de mieux détecter et étiqueter les images générées par l'intelligence artificielle partagées avec ses milliards d'utilisateurs.
Le titan des médias sociaux de la Silicon Valley espère disposer d'un système d'ici quelques mois pour identifier et marquer les images créées par l'IA et publiées sur ses plateformes Facebook, Instagram et Threads.
Meta et d'autres plateformes sont sous pression pour garder un œil sur le contenu généré par l'IA, craignant que de mauvais acteurs n'intensifient la désinformation, avec des élections prévues cette année dans des pays représentant la moitié de la population mondiale.
"Ce n'est pas parfait, cela ne couvrira pas tout ; la technologie n'est pas complètement mature", a déclaré à l'AFP Nick Clegg, responsable des affaires mondiales de Meta.
Bien que Meta ait mis en œuvre des balises visibles et invisibles sur les images créées à l'aide de ses propres outils d'IA depuis décembre, elle souhaite également travailler avec d'autres sociétés "pour maximiser la transparence dont disposent les utilisateurs", a ajouté Clegg.
"C'est pourquoi nous travaillons avec des partenaires industriels pour nous aligner sur des normes techniques communes qui signalent lorsqu'un élément de contenu a été créé à l'aide de l'IA", a déclaré la société dans un article de blog.
Cela se fera avec des entreprises avec lesquelles Meta travaille déjà sur les normes d'IA, notamment OpenAI, Google, Microsoft, Midjourney et d'autres entreprises impliquées dans la course féroce pour diriger le secteur naissant, a déclaré Clegg.
Mais alors que les entreprises ont commencé à inclure des " signaux " dans les images créées à l'aide de leurs outils d'IA, l'industrie a été plus lente à commencer à insérer de tels marqueurs d'identification dans l'audio ou la vidéo créée avec l'IA, selon Clegg.
Clegg admet que cet étiquetage à grande échelle, utilisant des marqueurs invisibles, "n'éliminera pas totalement" le risque de production de fausses images, mais affirme que "cela minimiserait certainement" leur prolifération "dans les limites de ce que permet actuellement la technologie".
Entre-temps, Meta a conseillé aux gens d'examiner le contenu en ligne d'un œil critique, de vérifier si les comptes qui le publient sont dignes de confiance et de rechercher des détails qui semblent artificiels.
Les hommes politiques et les femmes ont été des cibles privilégiées pour les images dites " deepfakes ", les nus de la chanteuse superstar Taylor Swift créés par l'IA étant récemment devenus viraux sur X, anciennement Twitter.
L'essor de l'IA générative a fait craindre que les gens puissent utiliser ChatGPT et d'autres plateformes pour semer le chaos politique via la désinformation ou les clones de l'IA.
OpenAI a annoncé le mois dernier qu'elle " interdirait toute utilisation de notre plateforme par des organisations ou des individus politiques ".
Meta demande déjà aux annonceurs de divulguer quand l'IA est utilisée pour créer ou modifier des images ou du son dans des publicités politiques.
Le comité de surveillance de la société, qui examine de manière indépendante les décisions de modération du contenu, a averti lundi que la politique de Meta concernant les contenus deepfakes avait un besoin urgent d'être mise à jour.
L'avertissement faisait partie d'une décision concernant une vidéo manipulée du président américain Joe Biden qui n'avait pas été créée avec l'IA.
Le Conseil d'administration a déclaré que la politique de Meta dans sa forme actuelle était " incohérente, manquant de justification convaincante et mal centrée sur la manière dont le contenu a été créé ".
© Copyright AFP 2024. All rights reserved.