ChatGPT
Les recherches de Microsoft suggèrent que le dernier modèle ChatGPT-4 est facile à manipuler. IBTimes UK

Dans une étude intitulée " DecodingTrust : A Comprehensive Assessment of Trustworthiness in GPT Models ", des chercheurs de diverses universités américaines et de la division de recherche de Microsoft ont découvert que Chat GPT-4 est plus susceptible d'être manipulé que les versions précédentes.

Le sujet du nouveau document de recherche est centré sur la fiabilité de l'outil d'IA développé par la société américaine d'IA OpenAI. Les chercheurs ont utilisé les modèles GPT-4 et GPT-3.5 pour mener leurs recherches.

L'article suggère que GPT-4 " suit plus précisément les informations trompeuses ". En conséquence, un utilisateur est plus susceptible de fournir des informations personnelles. Cependant, l'implication de Microsoft dans la recherche est un signe majeur qu'elle avait un objectif supplémentaire.

Microsoft n'a ménagé aucun effort pour tenter d'être à l'avant-garde dans le domaine de l'IA. Dans le même ordre d'idées, un rapport antérieur affirmait que le géant de la technologie basé à Redmond était sur le point de dévoiler sa première puce d'IA.

En dehors de cela, la société a récemment intégré GPT-4 dans un grand nombre de ses logiciels populaires, y compris Windows 11. Dans le document, les chercheurs ont souligné que les problèmes détectés dans l'IA n'apparaissent pas dans les résultats destinés aux " consommateurs " de Microsoft.

Il convient de noter que Microsoft est l'un des principaux investisseurs dans OpenAI. Le géant de la technologie fournit à l'entreprise d'IA des milliards de dollars ainsi qu'un accès à son infrastructure cloud.

Le GPT-4 est-il pire que ses prédécesseurs ?

La recherche a été divisée en diverses catégories de tests, notamment en matière d'équité, de confidentialité, de stéréotypes et de toxicité. Pour le plus grand plaisir de ceux qui souhaitent réaliser leurs propres tests, les chercheurs ont publié le " benchmark DecodingTrust " sur un site GitHub .

Bien que GPT-4 puisse être facilement trompé, les chercheurs lui ont attribué un score beaucoup plus élevé que le GPT-3.5 dans le département de fiabilité.

"Nous constatons également que bien que GPT-4 soit généralement plus fiable que GPT-3.5 sur les tests standards, GPT-4 est plus vulnérable compte tenu du système de jailbreak ou des invites de l'utilisateur", indique le résumé du document .

Jailbreaker l'IA n'est pas similaire au jailbreak d'un iPhone pour accéder à plus d'applications. Il faut un certain effort pour que les outils d'IA comme Google Bard ou ChatGPT contournent ses restrictions et fournissent des réponses qu'ils ne sont pas censés fournir.

Pourtant, un utilisateur a réussi à exploiter ChatGPT plus tôt cette année pour lui expliquer comment fabriquer du napalm en se faisant passer pour sa grand-mère décédée.

Bien qu'il semble que ChatGPT perde de son éclat, le développement de l'IA et des recherches approfondies semblent se poursuivre. Pendant ce temps, Baidu a annoncé sa nouvelle IA Ernie Bot 4.0, qui, selon le géant chinois de la technologie, est aussi bonne que Chat GPT-4.