Des artistes comme Karla Ortiz à San Francisco, en Californie, recherchent des moyens techniques et juridiques pour protéger leurs styles alors que l'intelligence artificielle « apprend » à copier des œuvres trouvées en ligne.
Des artistes comme Karla Ortiz à San Francisco, en Californie, recherchent des moyens techniques et juridiques pour protéger leurs styles alors que l'intelligence artificielle « apprend » à copier des œuvres trouvées en ligne. AFP

Les artistes assiégés par l'intelligence artificielle (IA) qui étudie leur travail, puis reproduit leurs styles, se sont associés à des chercheurs universitaires pour contrecarrer une telle activité de copie.

L'illustratrice américaine Paloma McClain est passée en mode défense après avoir appris que plusieurs modèles d'IA avaient été " formés " à l'aide de son art, sans qu'aucun crédit ni compensation ne lui soit envoyé.

"Cela m'a dérangé", a déclaré McClain à l'AFP.

"Je crois que les progrès technologiques véritablement significatifs se font de manière éthique et élèvent tous les gens au lieu de fonctionner aux dépens des autres."

L'artiste s'est tourné vers un logiciel libre appelé Glaze créé par des chercheurs de l'Université de Chicago.

Glaze surpasse essentiellement les modèles d'IA en ce qui concerne la façon dont ils s'entraînent, en ajustant les pixels d'une manière indiscernable pour les spectateurs humains, mais qui donne à une œuvre d'art numérisée un aspect radicalement différent de l'IA.

"Nous fournissons essentiellement des outils techniques pour aider à protéger les créateurs humains contre les modèles d'IA invasifs et abusifs", a déclaré le professeur d'informatique Ben Zhao de l'équipe Glaze.

Créée en seulement quatre mois, Glaze est une technologie dérivée utilisée pour perturber les systèmes de reconnaissance faciale.

"Nous travaillions à une vitesse ultra-rapide parce que nous savions que le problème était grave", a déclaré Zhao à propos de sa précipitation pour défendre les artistes contre les imitateurs de logiciels.

"Beaucoup de gens souffraient."

Les géants de l'IA générative ont conclu des accords pour utiliser les données à des fins de formation dans certains cas, mais la majorité des images numériques, de l'audio et du texte utilisés pour façonner la façon dont les logiciels ultra-intelligents pensent ont été supprimés d'Internet sans consentement explicite.

Depuis sa sortie en mars 2023, Glaze a été téléchargé plus de 1,6 million de fois, selon Zhao.

L'équipe de Zhao travaille sur une amélioration de Glaze appelée Nightshade qui renforce les défenses en confondant l'IA, par exemple en lui faisant interpréter un chien comme un chat.

"Je pense que Nightshade aura un effet notable si suffisamment d'artistes l'utilisent et mettent suffisamment d'images empoisonnées dans la nature", a déclaré McClain, ce qui signifie qu'il est facilement disponible en ligne.

"D'après les recherches de Nightshade, il ne faudrait pas autant d'images empoisonnées qu'on pourrait le penser."

L'équipe de Zhao a été approchée par plusieurs entreprises souhaitant utiliser Nightshade, selon l'universitaire de Chicago.

"L'objectif est que les gens puissent protéger leur contenu, qu'il s'agisse d'artistes individuels ou d'entreprises possédant de nombreux droits de propriété intellectuelle", a déclaré Zhao.

Startup Spawning a développé un logiciel Kudurru qui détecte les tentatives de récolte d'un grand nombre d'images à partir d'un site en ligne.

Un artiste peut alors bloquer l'accès ou envoyer des images qui ne correspondent pas à ce qui est demandé, entachant ainsi le pool de données utilisé pour enseigner à l'IA ce qui est quoi, selon Jordan Meyer, cofondateur de Spawning.

Plus d'un millier de sites Internet ont déjà été intégrés au réseau Kudurru.

Spawning a également lancé haveibeentrained.com, un site Web proposant un outil en ligne permettant de savoir si les œuvres numérisées ont été intégrées à un modèle d'IA et permettant aux artistes de refuser une telle utilisation à l'avenir.

Alors que les défenses contre les images se renforcent, des chercheurs de l'Université de Washington, dans le Missouri, ont développé un logiciel AntiFake pour contrecarrer la copie des voix par l'IA.

AntiFake enrichit les enregistrements numériques de personnes parlant, en ajoutant des bruits inaudibles pour les gens mais qui rendent " impossible la synthèse d'une voix humaine ", a déclaré Zhiyuan Yu, le doctorant à l'origine du projet.

Le programme vise à aller au-delà du simple arrêt de la formation non autorisée de l'IA pour empêcher la création de " deepfakes " – de fausses bandes sonores ou vidéos de célébrités, de politiciens, de proches ou d'autres personnes les montrant en train de faire ou de dire quelque chose qu'ils n'ont pas fait.

Un podcast populaire a récemment contacté l'équipe AntiFake pour l'aider à empêcher le détournement de ses productions, selon Zhiyuan Yu.

Le logiciel disponible gratuitement a jusqu'à présent été utilisé pour enregistrer des personnes parlant, mais pourrait également être appliqué à des chansons, a déclaré le chercheur.

"La meilleure solution serait un monde dans lequel toutes les données utilisées pour l'IA seraient soumises au consentement et au paiement", a soutenu Meyer.

"Nous espérons pousser les développeurs dans cette direction."