Microsoft
Une nouvelle étude suggère que Copilot de Microsoft offre des informations inexactes sur les prochaines élections américaines. IBTimes UK

Le chatbot basé sur l'IA de Microsoft, Copilot, a été accusé de fournir des informations inexactes en répondant à des requêtes liées aux élections américaines.

L'émergence de l'intelligence artificielle (IA) générative a radicalement remanié le processus de recherche d'informations en ligne. Des chatbots basés sur l'IA comme ChatGPT d'OpenAI et Copilot de Microsoft sont utilisés pour générer des réponses bien organisées à diverses invites.

Malheureusement, ces outils d'IA ne sont pas parfaits. En fait, ils ont de multiples problèmes qui doivent être résolus. Par exemple, de nouvelles recherches suggèrent que les cybercriminels peuvent profiter d'une fonctionnalité ChatGPT pour commettre des actes malveillants.

De même, les épisodes d'hallucinations de Copilot lors de sa création étaient très alarmants. Comme si cela ne suffisait pas, les données partagées par Cloudflare montrent que Microsoft est la marque la plus usurpée au monde et que les attaquants utilisent les propres outils du géant de la technologie pour commettre des fraudes.

Aujourd'hui, un nouveau rapport de WIRED suggère que le chatbot IA de Microsoft, Copilot, génère des réponses obsolètes, mal informées et carrément erronées aux questions concernant les prochaines élections américaines.

À l'approche des élections américaines, il est impératif que les électeurs disposent d'informations précises qui leur permettront de prendre des décisions éclairées. Cependant, les experts mettent en garde contre le recours aux chatbots IA pour obtenir des informations précises sur les élections.

Le Copilot de Microsoft peut-il préserver la démocratie ?

Le chatbot Copilot (anciennement Bing Chat) de Microsoft, alimenté par l'IA, a récemment gagné en popularité auprès des utilisateurs. Plus tôt cette année, Bing a dépassé pour la première fois la barre des cent millions d'utilisateurs actifs quotidiens.

Le géant de la technologie basé à Redmond a attribué une partie du succès à Bing Chat AI. Des rapports antérieurs suggèrent que la part de marché de Bing stagne malgré les investissements de Microsoft. En revanche, l'entreprise affirme que ses chiffres augmentent régulièrement.

Le rapport de WIRED montre que Copilot a fourni des réponses inexactes aux requêtes dans plusieurs cas. Par exemple, lorsque le chatbot IA a été interrogé sur les candidats aux élections, il a répertorié les candidats républicains qui avaient déjà quitté la course.

De même, interrogé sur les bureaux de vote basés aux États-Unis, le robot IA a fait référence à un article sur la candidature à la réélection du président russe Vladimir Poutine. Des recherches suggèrent notamment que Copilot fournit des informations inexactes sur les élections américaines et l'atmosphère politique en raison d'un problème dans son système.

"Il s'agit d'un problème systémique dans la mesure où les réponses générées à des invites spécifiques restent sujettes à des erreurs", soulignent les recherches d'AI Forensics et d'AlgorithmWatch .

De plus, l'étude indique que ce n'est pas la première fois que le Copilot de Microsoft se retrouve dans une situation similaire. En 2022, le chatbot IA a été accusé de fournir aux utilisateurs des informations inexactes sur les élections en Allemagne et en Suisse.

L'étude sur Microsoft Copilot montre également que le chatbot IA a donné des réponses inexactes à 1 question de base sur 3 liée aux candidats, aux sondages, aux scandales et au vote.

"À mesure que l'IA générative se généralise, cela pourrait affecter l'une des pierres angulaires de la démocratie : l'accès à une information publique fiable et transparente", notent les chercheurs.