Les législateurs de la capitale de l'État de Californie travaillent sur une série de lois visant à réprimer les utilisations abusives de l'intelligence artificielle sur le terrain de certains des plus puissants titans technologiques du monde.
Les législateurs de la capitale de l'État de Californie travaillent sur une série de lois visant à réprimer les utilisations abusives de l'intelligence artificielle sur le terrain de certains des plus puissants titans technologiques du monde. AFP

La Californie, qui abrite la Silicon Valley, est impatiente de freiner ou de réguler le déploiement de l'intelligence artificielle et s'inspire de l'approche dure de l'Europe à l'égard des grandes technologies.

L'État le plus riche des États-Unis en termes de PIB (produit intérieur brut), la Californie est un foyer d'innovation technologique sans règles, mais les législateurs de la capitale de l'État, Sacramento, veulent donner à l'industrie des lois et des garde-fous pour aborder les questions liées à l'IA.

Pour cela, les autorités californiennes veulent s'inspirer de l'Europe. "Ce que nous essayons de faire, c'est d'apprendre des Européens, mais aussi de travailler avec eux et de trouver comment mettre en place des réglementations sur l'IA", a déclaré David Harris, conseiller politique principal à la California Initiative for Technology and Democracy. .

Bruxelles a promulgué une série de lois sur la technologie dominée par les États-Unis et s'est précipitée pour adopter la loi sur l'IA après l'arrivée sur la scène de ChatGPT d'OpenAI, soutenu par Microsoft, fin 2022, déclenchant une course mondiale à l'IA.

Comme ils l'ont fait par le passé avec les lois européennes sur les données privées, les législateurs californiens se tournent vers la récente législation européenne sur l'IA, surtout compte tenu du peu d'espoir d'une législation nationale équivalente de la part de Washington.

Il existe au moins 30 projets de loi différents proposés par les législateurs de l'État de Californie qui concernent divers aspects de l'IA, selon Harris, qui a déclaré avoir conseillé des responsables ici et en Europe sur ces lois.

Les lois proposées en Californie vont de l'obligation aux fabricants d'IA de révéler ce qui a été utilisé pour former les modèles à l'interdiction des publicités électorales contenant des fonctionnalités générées par ordinateur.

"L'un des aspects qui me semble vraiment important est la question de savoir comment nous traitons les deepfakes ou les faux textes créés pour donner l'impression qu'un être humain vous envoie des messages", a déclaré Harris à l'AFP.

Gail Pellerin, membre de l'Assemblée de l'État, soutient un projet de loi qui, selon elle, interdirait essentiellement la diffusion de contenu numérique trompeur créé avec l'IA générative dans les mois précédant et les semaines suivant une élection.

"Les mauvais acteurs qui utilisent ce système espèrent en réalité créer le chaos lors d'une élection", a déclaré Pellerin.

L'association industrielle NetChoice est fermement opposée à l'importation d'aspects de la législation européenne sur l'IA ou de toute autre réglementation technologique de l'UE.

"Ils adoptent essentiellement une approche européenne en matière d'intelligence artificielle, à savoir que nous devons interdire cette technologie", a déclaré Carl Szabo, avocat général de l'association, qui plaide pour une réglementation légère de la technologie.

"Interdire l'IA n'arrêtera rien. C'est mauvais parce que les méchants ne respectent pas la loi", a soutenu Szabo.

"C'est ce qui fait d'eux des méchants."

Le géant américain des logiciels informatiques Adobe, comme la plupart des géants de la technologie, a travaillé avec l'Europe sur la loi sur l'IA, selon l'avocat général et directeur de la fiducie d'Adobe, Dana Rao.

Au cœur de la loi européenne sur l'IA se trouve une approche basée sur les risques, les pratiques d'IA jugées plus risquées faisant l'objet d'un examen plus approfondi.

"Nous sommes satisfaits du résultat de la loi sur l'IA", avec son approche à haut risque et à faible risque, a déclaré Rao.

Selon Rao, les ingénieurs d'Adobe effectuent déjà des " évaluations d'impact " pour évaluer les risques avant de mettre à disposition des produits d'IA.

"Il faut réfléchir à la sûreté nucléaire, à la cybersécurité, et au moment où AI prend des décisions importantes en matière de droits de l'homme", a déclaré Rao.

En Californie, Rao a déclaré qu'il s'attendait à ce que le problème des deepfakes soit le premier à tomber sous l'autorité d'une nouvelle loi.

Le projet de loi 602 de l'Assemblée criminaliserait la pornographie deepfake non consensuelle, tandis que le projet de loi 730 de l'Assemblée interdirait l'utilisation de deepfakes par l'IA pendant la campagne électorale.

Pour lutter contre cela, Adobe s'est associé à d'autres sociétés pour créer des " informations d'identification de contenu " que Rao a assimilées à une " étiquette nutritionnelle " pour le contenu numérique.

La députée Pellerin s'attend à ce que les lois sur l'IA adoptées en Californie soient reproduites dans d'autres États.

"Les gens surveillent la Californie", a déclaré Pellerin, alors qu'un grand nombre d'États américains travaillent également sur leurs propres projets de loi sur l'IA.

"Nous sommes tous dans le même bateau ; nous devons garder une longueur d'avance sur ceux qui tentent de semer le chaos lors d'une élection", a-t-elle déclaré.