Interdire chatgpt et l'usage de l'IA à l'école/entreprises
Pexels

Pour parodier les citations attribuées à Jean Cocteau, " Quand les événements nous dépassent, feignons d'en être les organisateurs et commençons par les interdire ! "

La diffusion massive de l'IA générative grand public, comme ChatGPT, a pris tout le monde de court. Dans les écoles, au bureau, dans les services publics, l'utilisation des outils d'IA laisse perplexe, interroge voire inquiète.

Le gouvernement a officiellement lancé, le 5 octobre, son expérimentation de l'intelligence artificielle générative dans l'administration française. Une expérimentation technologique qui doit permettre à terme d'améliorer les réponses aux questions des usagers des services publics.

Depuis cet été, neuf réseaux de services publics, dont la CAF, l'Assurance maladie ou la Caisse nationale d'assurance vieillesse (CNAV), alimentent en données un modèle d'IA générative développé par la start-up américaine Anthropic AI, qui a créé un concurrent de ChatGPT. Ce qui côté souveraineté nationale laisse un peu à désirer puisqu'Amazon vient d'y investir 4 milliards de dollars pour accélérer son développement.

" Dans certains cas et dans certains réseaux, les tests réalisés cet été ont montré que le délai de réponse de l'administration était divisé par 2, voire par 6 ", a expliqué Laurent Blanc. L'expérimentation doit permettre de corriger ces imperfections, et le gouvernement espère élargir son périmètre à certaines Maisons France Services avant la fin de l'année.

Répondre plus vite et mieux, voilà bien l'objectif des élèves et des étudiants. Selon un sondage d'un organisme de formation, 72 % des étudiants utilisent ChatGPT comme soutien scolaire en France. Un sur deux l'utiliserait même chaque semaine. Qu'il s'agisse de faire les devoirs, préparer un exposé ou effectuer un travail à la maison, ChatGPT est devenu la norme, comme Wikipedia ou Google en son temps. 45,6 % des sondés l'utilisent pour rédiger des dissertations, des textes et des exposés, pour traduire et écrire des travaux en langue étrangère, ou même pour résoudre des problèmes mathématiques. Mais seulement 15,6 % des professeurs ou écoles ont mis en place des mesures préventives pour encadrer l'utilisation de ChatGPT.

Face à la tempête certains construisent des murs, d'autres des moulins

Mais faut-il vraiment l'interdire, ou au contraire accompagner sa maîtrise par les étudiants ?

L'Unesco a un avis. L'organisme souligne l'importance de la réglementation de l'IA générative dans le domaine éducatif. Ils recommandent notamment l'adoption de normes mondiales, régionales ou nationales en matière de protection des données et de vie privée. De plus, l'organisation fixe une limite d'âge de 13 ans pour l'utilisation des outils d'IA dans les salles de classe et insiste sur la formation spécifique des enseignants à ce sujet.

Selon Adrien Jourdan, directeur d'ISpeakSpokeSpoken, à l'origine du sondage, " tout en reconnaissant pleinement l'importance d'une réglementation adéquate, je suis convaincu que la simple interdiction n'est pas la réponse appropriée. Je soutiens avec force que l'éducation est la clé. Il est impératif d'enseigner aux élèves comment utiliser ces outils de manière saine et efficace. Cela signifie, par exemple, leur apprendre à distinguer les informations fiables des fausses, à éviter le plagiat, et à maîtriser ces outils pour des activités d'apprentissage ou de révision.

Dans les entreprises, le ton est différent. Selon une étude menée par BlackBerry, 82 % des entreprises françaises envisagent d'interdire ChatGPT et les applications d'IA générative sur les appareils professionnels. Pour 62 % des organisations françaises, les risques liés à la sécurité des données et à la vie privée justifient cette décision. Et 50 % s'inquiètent également des répercussions que l'utilisation des IA génératives pourrait engendrer sur leur réputation.