Un écran de téléphone montrant une vidéo sur les réseaux sociaux marquée comme « vidéo modifiée », devant une image vérifiée de présentateurs de nouvelles où l'affirmation à leur sujet s'est avérée fausse.
Un écran de téléphone montrant une vidéo sur les réseaux sociaux marquée comme « vidéo modifiée », devant une image vérifiée de présentateurs de nouvelles où l'affirmation à leur sujet s'est avérée fausse. AFP

Dans une vidéo Facebook vue par des milliers de personnes, Wolf Blitzer de CNN semble vendre un médicament contre le diabète. Dans une autre animatrice de " CBS Mornings ", Gayle King semble approuver les produits de perte de poids.

Mais les clips sont falsifiés – le dernier d'une vague de deepfakes qui détournent des images de personnalités de l'information de confiance dans des publicités fallacieuses, sapant ainsi la confiance dans les médias d'information.

Ces derniers mois, des publications similaires sur les réseaux sociaux ont ciblé la personnalité de Fox News, Jesse Watters, l'animateur de CBC Ian Hanomansing et les stars de la BBC Matthew Amroliwala et Sally Bundock.

Dans certains cas, les journalistes ont utilisé leurs propres comptes pour riposter.

"Je n'ai jamais entendu parler de ce produit ni l'ai utilisé ! Ne vous laissez pas berner par ces vidéos d'IA", a déclaré King sur Instagram en octobre.

Après avoir vu des clips de lui-même faisant soi-disant la promotion de produits à base de cannabis, le correspondant médical de CNN, Sanjay Gupta, a également publié un avertissement : "Ces escroqueries n'ont rien à voir avec moi... ma principale préoccupation est votre santé, et je crains que vous puissiez être blessé si vous prenez ces produits.

Les vidéos manipulées mettent en avant tout, depuis les traitements non éprouvés jusqu'aux programmes d'investissement – dont beaucoup promettent un " revenu garanti " ou l'accès à des actions convoitées. Certains utilisent également des images altérées du milliardaire Elon Musk, fondateur de Tesla et SpaceX.

Certains incluent des liens vers des programmes d'investissement, des produits non approuvés ou des sites de commerce électronique sans rapport qui disparaissent après plusieurs jours.

Meta, la société mère de Facebook et Instagram, a interdit les deepfakes depuis début 2020, à quelques exceptions près pour la parodie et la satire. D'autres plateformes ont des politiques similaires.

Mais de tels clips, dont beaucoup ont été vérifiés par l'AFP, continuent de circuler en ligne.

"J'ai constaté une augmentation de ce type de vidéos dans lesquelles la voix d'une personne est clonée à partir de seulement deux minutes de sa voix, puis toute autre vidéo d'elle est modifiée afin que la bouche soit cohérente avec le nouvel audio", Hany Farid , professeur à l'Université de Californie à Berkeley spécialisé en criminalistique numérique, avait précédemment déclaré à l'AFP.

Certains deepfakes sont faciles à détecter en raison de leur mauvaise qualité. Cependant, les experts préviennent que la technologie s'améliore et que les personnalités de la télévision sont des cibles faciles car il existe de nombreuses images disponibles pour entraîner des programmes d'IA.

Cette tendance est inquiétante car " les gens font désormais confiance à un présentateur comme leur ami ", selon Andrea Hickerson, doyenne du journalisme à l'Université du Mississippi.

"C'est vraiment dangereux parce que les gens ne s'attendent pas à ce que de la désinformation arrive de cette manière", a-t-elle déclaré. "Cela ressemble à un média d'information traditionnel."

Le contenu manipulé par l'IA est devenu une part croissante de la fraude à l'investissement en particulier, qui a coûté aux Américains quelque 3,8 milliards de dollars en 2022, selon la Federal Trade Commission.

De tels stratagèmes auraient ciblé des victimes au Canada, en Australie et dans d'autres pays. Dans certains cas, ils coûtent aux individus des dizaines, voire des centaines de milliers de dollars.

"Les stratagèmes deviennent de plus en plus complexes à mesure que les criminels fusionnent les tactiques traditionnelles avec des escroqueries en ligne impliquant des crypto-monnaies et l'intelligence artificielle", a déclaré l'avocat Chase Carlson dans un article de blog plus tôt cette année.

Les Américains sont de plus en plus préoccupés par l'utilisation de l'IA en ligne, notamment en matière politique.

Plus de 50 % s'attendent à ce que de tels mensonges affectent le résultat des élections de 2024, selon un sondage réalisé en septembre par Axios et la société de renseignement économique Morning Consult.

L'AFP a déjà démystifié de fausses vidéos montrant le président américain Joe Biden annonçant une conscription militaire et l'ancienne secrétaire d'État Hillary Clinton soutenant le gouverneur de Floride Ron DeSantis à la présidence.

Rebekah Tromble, directrice de l'Institut pour les données, la démocratie et la politique à l'Université George Washington, a déclaré que ce type de désinformation "joue dans des préoccupations plus larges concernant la confiance dans l'information et dans les institutions".

Selon un sondage Gallup d'octobre, seul un tiers environ des Américains ont une " grande " ou " assez " confiance dans les médias, ce qui correspond au niveau le plus bas enregistré en 2016.

La plupart des clips manipulés qui circulent en ligne sont des " contrefaçons bon marché ", a noté Tromble, mais ils contribuent néanmoins à " une crise de confiance ". Elle a exhorté les consommateurs d'informations à faire preuve de prudence avant de partager de telles publications sur les réseaux sociaux.

"Il existe encore beaucoup de bonnes informations, et avec une bonne dose de scepticisme, nous pouvons éliminer les éléments qui relèvent de la désinformation", a-t-elle déclaré.

Cette illustration photo montre une image vérifiée des présentateurs de nouvelles où l'affirmation à leur sujet s'est avérée fausse.
Cette illustration photo montre une image vérifiée de présentateurs de nouvelles où l'affirmation à leur sujet s'est avérée fausse. AFP