Les outils d’IA ont souvent été critiqués parce qu’ils reflètent des stéréotypes raciaux et sexistes
Les outils d’IA ont souvent été critiqués parce qu’ils reflètent des stéréotypes raciaux et sexistes AFP

Les outils d'IA les plus populaires au monde sont alimentés par des programmes d'OpenAI et Meta qui montrent des préjugés à l'égard des femmes, selon une étude lancée jeudi par l'organisation culturelle des Nations Unies, l'UNESCO.

Les plus grands acteurs dans le domaine de l'IA, qui pèse plusieurs milliards de dollars, entraînent leurs algorithmes sur de grandes quantités de données largement extraites d'Internet, ce qui permet à leurs outils d'écrire dans le style d'Oscar Wilde ou de créer des images inspirées de Salvador Dali.

Mais leurs productions ont souvent été critiquées pour refléter des stéréotypes raciaux et sexistes, ainsi que pour avoir utilisé du matériel protégé par le droit d'auteur sans autorisation.

Les experts de l'UNESCO ont testé l'algorithme Llama 2 de Meta ainsi que GPT-2 et GPT-3.5 d'OpenAI, le programme qui alimente la version gratuite du chatbot populaire ChatGPT.

L'étude a révélé que chaque algorithme – connu dans l'industrie sous le nom de Large Language Models (LLM) – montrait " des preuves sans équivoque de préjugés à l'égard des femmes ".

Les programmes généraient des textes associant les noms des femmes à des mots tels que " maison ", " famille " ou " enfants ", mais les noms des hommes étaient liés à " entreprise ", " salaire " ou " carrière ".

Alors que les hommes étaient représentés dans des emplois de haut rang comme les enseignants, les avocats et les médecins, les femmes étaient souvent des prostituées, des cuisinières ou des domestiques.

GPT-3.5 s'est avéré moins biaisé que les deux autres modèles.

Cependant, les auteurs ont félicité Llama 2 et GPT-2 pour être open source, permettant d'examiner ces problèmes, contrairement à GPT-3.5, qui est un modèle fermé.

Les entreprises d'IA "ne servent vraiment pas tous leurs utilisateurs", a déclaré à l'AFP Leona Verdadero, spécialiste des politiques numériques à l'UNESCO.

Audrey Azoulay, directrice générale de l'UNESCO, a déclaré que le grand public utilise de plus en plus les outils d'IA dans sa vie quotidienne.

"Ces nouvelles applications d'IA ont le pouvoir de façonner subtilement les perceptions de millions de personnes, de sorte que même de petits préjugés sexistes dans leur contenu peuvent amplifier considérablement les inégalités dans le monde réel", a-t-elle déclaré.

L'UNESCO, publiant le rapport à l'occasion de la Journée internationale de la femme, a recommandé aux entreprises d'IA d'embaucher davantage de femmes et de minorités et a appelé les gouvernements à garantir une IA éthique par le biais d'une réglementation.