OpenAI
IBTimes UK

Une étude récemment menée par un doctorant. Rui Zhu, candidat à l'Université d'Indiana à Bloomington, a découvert une menace potentielle pour la vie privée liée au puissant modèle de langage d'OpenAI, GPT-3.5 Turbo.

Le mois dernier, Zhu a contacté plusieurs personnes, dont Jeremy White du New York Times , après avoir obtenu leurs adresses e-mail à l'aide du modèle GPT-3.5 Turbo.

"M. Zhu avait mon adresse e-mail, a-t-il expliqué, parce que GPT-3.5 Turbo, l'un des modèles de langage étendus (LLM) les plus récents et les plus robustes d'OpenAI, la lui avait livrée", a noté White dans un article récemment publié au New York Times.

Dans le cadre de l'expérience, Zhu a profité d'une fonctionnalité GPT-3.5 Turbo qui permet au modèle de rappeler des données personnelles et a réussi à échapper aux garanties de confidentialité du modèle sans transpirer.

Malgré ses défauts, le modèle a fourni avec précision les adresses professionnelles de 80 pour cent des employés du Times testés. Naturellement, cette découverte a soulevé des inquiétudes quant à la possibilité que des outils d'IA de type ChatGPT puissent divulguer des informations sensibles sans aucune modification majeure.

Pouvez-vous compter sur des outils d'IA de type ChatGPT pour protéger vos informations personnelles ?

Ce n'est pas la première fois qu'un modèle basé sur l'IA est utilisé à mauvais escient. Pour récapituler , plus de 10 000 comptes ChatGPT auraient été compromis et vendus sur le dark web plus tôt cette année.

Pour ceux qui ne le savent pas, GPT-3.5 Turbo et GPT-4 font partie de la suite de modèles de langage d'OpenAI qui continuent d'apprendre à partir de nouvelles informations.

Les chercheurs ont manipulé les mesures de sécurité de l'outil en modifiant l'interface de réglage fin du modèle, conçue à l'origine pour permettre aux utilisateurs d'améliorer les connaissances du modèle dans des domaines spécifiques. Grâce à cette méthode, les chercheurs ont forcé l'interface standard à approuver des demandes qu'elle refuserait normalement.

Notamment, les grandes entreprises technologiques comme Meta, Google, Microsoft et OpenAI n'ont ménagé aucun effort pour tenter d'empêcher les demandes d'informations personnelles. À leur grand regret, les chercheurs continuent de trouver des moyens ingénieux de contourner ces garanties.

Zhu et son équipe ont évité d'utiliser l'interface standard du modèle. Au lieu de cela, ils ont obtenu les résultats en utilisant l'API du modèle et en adoptant un processus appelé réglage fin. De même, de nouvelles recherches ont révélé que les cybercriminels peuvent exploiter une fonctionnalité ChatGPT qui leur permet de créer leurs propres assistants IA pour exécuter des escroqueries en ligne.

En réponse à ces préoccupations, OpenAI a souligné son engagement en faveur de la sécurité et sa position contre les demandes de données privées. Cependant, certains experts, encore très sceptiques, soulignent le manque de transparence autour des données d'entraînement du modèle et le risque lié aux modèles d'IA qui conservent des données sensibles.

La vulnérabilité GPT-3.5 Turbo récemment découverte a suscité davantage d'inquiétudes quant à la confidentialité des utilisateurs dans les modèles linguistiques à grande échelle. Selon les experts, les modèles disponibles dans le commerce n'offrent pas de moyens fiables de protéger la vie privée et présentent des risques majeurs car ils intègrent constamment diverses sources de données.

Citant les pratiques opaques d'OpenAI en matière de données de formation, certains critiques ont appelé à plus de transparence et à des garanties améliorées pour protéger les informations personnelles hébergées par ces modèles d'IA.