ChatGPT
Une nouvelle étude implique que les pirates peuvent utiliser ChatGPT et d'autres outils d'IA pour lancer des cyberattaques. IBTimes UK

Une nouvelle étude affirme que les chatbots basés sur l'IA, y compris le très populaire ChatGPT d'OpenAI, pourraient aider les pirates informatiques à lancer des cyberattaques.

Les utilisateurs peuvent profiter d'une vulnérabilité et inciter le chatbot IA à écrire du code malveillant qui peut non seulement pirater des bases de données, mais également voler des informations sensibles.

Selon des chercheurs du département d'informatique de l'université de Sheffield , les gens sont susceptibles de le faire accidentellement et de provoquer le crash de systèmes informatiques vitaux.

Par exemple, une infirmière pourrait demander à ChatGPT d'écrire un code pour l'aider à rechercher dans les dossiers cliniques de son hôpital.

Dans le même esprit, de nouvelles recherches de Microsoft ont montré que le dernier Chat GPT-4 est plus facile à manipuler que son prédécesseur, ChatGPT-3.

En outre, l'équipe de l'Université de Sheffield a noté que même les entreprises à l'origine de ces chatbots complexes n'étaient pas conscientes des menaces qu'ils représentaient.

AI Safety Summit 2023 : à quoi s'attendre ?

Il est intéressant de noter que l'étude a été publiée avant le AI Safety Summit , qui devrait avoir lieu les 1er et 2 novembre au Royaume-Uni. L'événement se concentre sur le déploiement de la technologie en toute sécurité.

Des magnats de la technologie, des universitaires et des dirigeants mondiaux se rencontreront pour convenir d'un cadre visant à protéger les individus contre les dommages " catastrophiques " potentiels de l'intelligence artificielle.

OpenAI a déclaré que la faille spécifique avait été corrigée depuis que le problème a été signalé. Cependant, l'équipe du département d'informatique de Sheffield, qui estime qu'il pourrait y avoir d'autres failles similaires, a demandé au secteur de la cybersécurité de vérifier le problème plus en détail.

L'article montre que les systèmes Text-to-SQL peuvent être utilisés pour attaquer des systèmes informatiques dans le monde réel. Il convient de noter que les systèmes Text-to-SQL font allusion à une IA capable de rechercher des bases de données en posant des questions dans un langage simple.

Notamment, les cinq outils commerciaux d'IA analysés par les chercheurs n'ont pas hésité à produire des codes malveillants, susceptibles de divulguer des informations confidentielles ou d'interrompre et de détruire complètement les services.

Selon les résultats, même les gens ordinaires pourraient désormais mener de telles attaques. En conséquence, des utilisateurs innocents pourraient finir par infecter accidentellement les systèmes informatiques.

Xutan Peng, doctorant à l'Université de Sheffield, qui a codirigé la recherche, a déclaré : " En réalité, de nombreuses entreprises ne sont tout simplement pas conscientes de ce type de menaces et, en raison de la complexité des chatbots, même au sein de la communauté, il y a des choses qui " ne sont pas entièrement compris. Pour le moment, ChatGPT reçoit beaucoup d'attention. "

Bien que les risques pour le service lui-même soient minimes, Peng a souligné que le système autonome peut être amené à produire du code malveillant. Sans surprise, ce code peut être utilisé pour nuire gravement à d'autres services.

Il a poursuivi en soulignant que le risque avec ChatGPT et d'autres robots conversationnels similaires est que les gens les utilisent comme outils de productivité. "C'est là que nos recherches montrent que se trouvent les vulnérabilités", a expliqué Peng.

Plus tôt ce mois-ci, l' US Space Force a décidé de suspendre l'utilisation des outils d'IA générative de type ChatGPT pour son personnel en raison de problèmes de sécurité des données similaires.