L’émergence de l’IA a suscité à la fois un enthousiasme quant à ses promesses technologiques et des inquiétudes quant à son impact potentiel sur la société.
L’émergence de l’IA a suscité à la fois un enthousiasme quant à ses promesses technologiques et des inquiétudes quant à son impact potentiel sur la société. AFP

Les modèles d'intelligence artificielle manquent de transparence, selon une étude publiée mercredi qui vise à guider les décideurs politiques dans la réglementation de cette technologie en croissance rapide.

Des chercheurs de l'Université de Stanford ont conçu un " Foundation Model Transparency Index " qui classe 10 grandes entreprises d'IA.

Le meilleur score – 54 % – a été attribué à Llama 2, le modèle d'IA lancé par Meta, propriétaire de Facebook et Instagram, en juillet.

GPT-4, le modèle phare de la société OpenAI soutenue par Microsoft, qui a créé le célèbre chatbot ChatGPT, s'est classé troisième avec un score de 48 %.

Le PaLM 2 de Google est cinquième avec 40 pour cent, juste au-dessus de Claude 2 de la société Anthropic, soutenue par Amazon, avec 36 pour cent.

Rishi Bommasani, chercheur au Centre de recherche sur les modèles de fondation de Stanford, a déclaré que les entreprises devraient viser un score compris entre 80 et 100 pour cent.

Les chercheurs ont déclaré que " moins de transparence rend plus difficile " pour " les décideurs politiques de concevoir des politiques significatives pour maîtriser cette technologie puissante ".

Il est également plus difficile pour les autres entreprises de savoir si elles peuvent compter sur la technologie pour leurs propres applications, pour les universitaires de faire des recherches et pour les consommateurs de comprendre les limites des modèles, ont-ils déclaré.

"Sans transparence, les régulateurs ne peuvent même pas poser les bonnes questions, et encore moins prendre des mesures dans ces domaines", a déclaré Bommasani.

L'émergence de l'IA a suscité à la fois un enthousiasme quant à ses promesses technologiques et des inquiétudes quant à son impact potentiel sur la société.

L'étude de Stanford indique qu'aucune entreprise ne fournit d'informations sur le nombre d'utilisateurs qui dépendent de leur modèle ou des emplacements géographiques où ils sont utilisés.

La plupart des sociétés d'IA ne divulguent pas la quantité de matériel protégé par le droit d'auteur utilisé dans leurs modèles, ont indiqué les chercheurs.

"Pour de nombreux décideurs politiques de l'UE ainsi qu'aux États-Unis, au Royaume-Uni, en Chine, au Canada, dans le G7 et dans un large éventail d'autres gouvernements, la transparence est une priorité politique majeure", a déclaré Bommasani.

L'UE mène la charge en matière de réglementation de l'IA et vise à donner son feu vert à ce qui serait la première loi au monde couvrant cette technologie d'ici la fin de l'année.

Le Groupe des Sept a appelé à une action sur l'IA lors d'un sommet au Japon plus tôt cette année et la Grande-Bretagne accueillera un sommet international sur la question en novembre.