Microsoft a investi des milliards dans OpenAI et intégré sa technologie dans ses produits
AFP

Il est désormais interdit aux membres du personnel de la Chambre des représentants des États-Unis d'utiliser l'assistant d'IA générative Copilot de Microsoft, invoquant des problèmes de sécurité.

Cette action du Congrès, rapportée pour la première fois par Axios, reflète les efforts continus du gouvernement fédéral pour lutter contre son utilisation interne de l'IA et élaborer des réglementations pour cette technologie en croissance rapide.

Selon le rapport Axios , le Bureau de la cybersécurité a considéré l'application Microsoft Copilot comme un " risque pour les utilisateurs en raison de la menace de fuite de données de la Chambre vers des services cloud non approuvés par la Chambre ", a déclaré Catherine Szpindor, directrice administrative de la Chambre.

En conséquence, il est interdit aux membres du personnel d'utiliser l'assistant basé sur l'IA de Microsoft sur leurs appareils fournis par le gouvernement. Un mémorandum de Szpindor fait état des préoccupations soulevées par le Bureau de la cybersécurité concernant le potentiel de fuites de données non autorisées vers les services cloud. Cependant, les membres du Congrès restent autorisés à utiliser Copilot AI sur des appareils personnels.

Dans une déclaration à Reuters , un porte-parole de Microsoft a déclaré : " Nous reconnaissons que les utilisateurs gouvernementaux ont des exigences plus élevées en matière de sécurité des données. C'est pourquoi nous avons annoncé une feuille de route des outils Microsoft AI, comme Copilot, qui répondent aux exigences de sécurité et de conformité du gouvernement fédéral que nous avons l'intention de fournir. Plus tard cette année."

L'IA au gouvernement : équilibrer innovation et sécurité

Le mémo indique en outre que les législateurs et le personnel ne sont autorisés à utiliser que la version payante de ChatGPT Plus d'OpenAI, connue pour ses fonctionnalités de confidentialité améliorées. Szpindor a souligné que ChatGPT Plus ne peut être utilisé qu'à des fins de " recherche et d'évaluation ", les paramètres de confidentialité étant toujours activés.

Le mémo interdit au personnel de coller " tout bloc de texte qui n'a pas encore été rendu public " dans le chatbot. Il indique également explicitement : " Aucune autre version de ChatGPT ou d'autres logiciels d'IA de grands modèles de langage n'est actuellement autorisée à être utilisée à la Chambre. "

Les préoccupations concernant l'utilisation abusive de l'IA dépassent le cadre de la Chambre. En 2023, un groupe bipartisan de quatre sénateurs américains a présenté une législation visant à interdire les contenus générés par l'IA qui présentent de manière trompeuse les candidats dans les publicités politiques pour les élections fédérales.

Cette décision reflète des inquiétudes plus larges concernant le potentiel de manipulation de l'IA lors des élections. Les chercheurs ont accusé Copilot d'avoir fourni des informations inexactes en répondant à des questions liées aux élections américaines l'année dernière.

Sans surprise, le bureau de Szpindor prévoit d'évaluer la version gouvernementale de Copilot après sa sortie pour voir si elle est appropriée pour une utilisation sur les appareils House. Pour fournir un contexte à ceux qui ne connaissent pas la situation, il est important de noter que le géant du logiciel dirigé par Satya Nadella a déjà annoncé son intention d'introduire plusieurs outils et services spécifiques au gouvernement.

Celles-ci incluent une version sécurisée d'Azure OpenAI pour les charges de travail classifiées, ainsi qu'une version améliorée de l'assistant Copilot pour Microsoft 365. Ces offres visent à améliorer la sécurité des données gouvernementales sensibles.

De plus, les grandes entreprises technologiques comme Google et Apple ont également mis en place des limitations sur l'utilisation par les employés d'outils d'IA générative comme ChatGPT. L'année dernière, le géant coréen des smartphones a interdit à ses employés d'utiliser des outils d'IA générative sur les appareils appartenant à Samsung et sur les réseaux internes de l'entreprise.

Cette décision fait suite à une série de manquements à la confidentialité impliquant OpenAI, comme un bug ChatGPT qui a divulgué les historiques de discussion des utilisateurs. Le coupable a été attribué à " un bug dans une bibliothèque open source ", mettant en évidence les vulnérabilités potentielles de ces modèles d'IA.