Alors que des entreprises comme Google et Microsoft adaptent leurs moteurs de recherche à la technologie de l’IA, elles risquent d’être confrontées à des problèmes croissants en matière de confidentialité des données.
AFP

Un nouveau modèle d'intelligence artificielle (IA) de Google, appelé Gemini, surpasserait ChatGPT dans la plupart des tests et afficherait un " raisonnement avancé " dans plusieurs formats.

Décrit par Google comme " son modèle le plus performant à ce jour ", Gemini est le premier à être annoncé depuis le sommet mondial sur la sécurité de l'IA du mois dernier, au cours duquel les entreprises technologiques ont convenu de collaborer avec les gouvernements pour tester des systèmes avancés avant et après leur sortie.

Google, une multinationale américaine de technologie, a déclaré qu'elle était en discussion avec le nouveau AI Safety Institute du Royaume-Uni pour tester la version la plus puissante de Gemini, qui sera publiée l'année prochaine.

Selon Google, Gemini possède des " capacités de raisonnement " avancées, qui lui permettent de " réfléchir plus attentivement " lorsqu'il répond à des questions difficiles.

Le modèle a été testé sur sa résolution de problèmes et ses connaissances dans 57 domaines, dont les mathématiques et les sciences humaines.

Il a surpassé les modèles d'IA " de pointe ", notamment le modèle le plus puissant de ChatGPT, GPT-4, dans 30 des 32 tests de référence, notamment en matière de raisonnement et de compréhension des images.

Le modèle Pro a surpassé GPT-3.5, la technologie qui sous-tend la version en accès gratuit de ChatGPT, dans six tests sur huit.

Le patron Sundar Pichai a déclaré que cela représentait une " nouvelle ère " pour l'IA.

"Cette nouvelle ère de modèles représente l'un des plus grands efforts scientifiques et techniques que nous ayons entrepris en tant qu'entreprise. Je suis vraiment enthousiasmé par ce qui nous attend et par les opportunités que Gemini offrira aux gens du monde entier."

Gemini devrait sortir en janvier après que la date aurait été repoussée car Google "a découvert que l'IA ne traitait pas de manière fiable certaines requêtes non anglaises".

L'entreprise technologique a adopté une approche prudente lors du lancement de son chatbot IA, Bard , plus tôt cette année, le décrivant comme " une expérience ".

Bard a commis une erreur dans sa démo publicitaire, en fournissant une mauvaise réponse à une question sur l'espace.

Gemini diffère légèrement de son prédécesseur : il s'agit de ce que l'on appelle un modèle fondamental, ce qui signifie qu'il sera intégré aux outils existants de Google, notamment la recherche et Bard.

Bien qu'elle semble éclipser les capacités de ChatGPT d'OpenAI, une nouvelle version plus puissante du logiciel OpenAI devrait être publiée l'année prochaine, le directeur général Sam Altman affirmant que les nouveaux produits de l'entreprise feraient ressembler les produits actuels à "un parent pittoresque".

Il reste à voir si les récentes perturbations au sein d'OpenAI – qui ont vu M. Altman licencié et réembauché en l'espace de quelques jours – auront un impact sur ce lancement.

L'entreprise fait également face à une nouvelle concurrence de la part de xAI d'Elon Musk, qui cherche à lever environ 1 milliard de dollars pour investir dans la recherche et le développement.

La société chinoise Baidu avance également avec ses propres produits d'IA.

Mais à mesure que la technologie évolue rapidement, les craintes quant à son potentiel nocif augmentent également.

Les gouvernements du monde entier tentent d'élaborer des règles, voire des lois, pour contenir les éventuels risques futurs liés à l'IA.

En novembre, le sujet a été abordé lors d'un sommet au Royaume-Uni , organisé par le Premier ministre britannique Rishi Sunak à Bletchley Park, dans le Buckinghamshire.

Les législateurs européens ont interrompu aujourd'hui les négociations sur la loi historique sur l'intelligence artificielle (IA) du bloc, acceptant de reprendre les discussions vendredi après avoir échoué à parvenir à un accord au cours de près de 24 heures de négociations.

Les législateurs avaient convenu jeudi de conditions provisoires pour réglementer les systèmes d'IA comme ChatGPT, ont indiqué des sources, faisant ainsi un pas de plus vers l'adoption de règles régissant la technologie.

Un document diffusé parmi les négociateurs montre que la Commission européenne tiendrait à jour une liste de modèles d'IA considérés comme présentant un " risque systémique ", tandis que les fournisseurs d'IA à usage général devraient publier des résumés détaillés du contenu utilisé pour les former.