Reflets Mag #148 | Julien Mardas (M16) : « L’IA générative produit des fake news impossibles à débusquer »
Reflets Mag #148 consacre un dossier à l’intelligence artificielle générative. Parmi les intervenants : Julien Mardas (M16), fondateur de Buster.Ai, qui explique comment il lutte contre l’explosion des fakes news produites par l’IA grâce à… son propre outil IA. Ou comment battre son adversaire avec ses propres armes. Découvrez l’article en accès libre… et pour lire les prochains numéros, abonnez-vous !
Reflets Magazine : Les récentes avancées de l’intelligence artificielle générative marquent-elles une nouvelle étape dans le développement des fake news ?
Julien Mardas : À l’origine, les fake news étaient généralement créées par des humains qui rédigeaient des articles destinés à induire en erreur ou à faire du sensationnel, voire à déstabiliser les économies ou provoquer des soulèvements. Néanmoins, il restait possible de « debunker » l’information, c’est-à-dire de la vérifier et d’en faire le démenti en un temps acceptable et de manière explicable. Les récentes avancées de l’IA et des modèles génératifs de stable diffusion permettent de créer des fakes news qu'il est pratiquement impossible de distinguer des vraies, et de le faire en passant à l’échelle.
RM : Pouvez-vous donner des exemples ?
J. Mardas : Il devient possible de créer des articles similaires au style d'un média particulier : il suffit « d’entraîner » un modèle d'IA à reconnaître un grand nombre de publications qui en sont issues. Les IA génératives sont également capables d’agir de façon dite « multimodale », à savoir de générer une combinaison cohérente de contenus image, texte et audio. On peut ainsi détourner des vidéos (deepfake) ou même les créer de toutes pièces (Image GAN). Sans oublier les outils qui donnent les moyens d’éditer certaines parties d’une image de façon à la décontextualiser sans en altérer les éléments principaux. Autrement dit : il est désormais très simple de donner l'impression que quelqu'un dit ou fait quelque chose qu'il n'a jamais dit ou fait. Et donc, de manipuler les opinions et les croyances des gens. D’autant que les IA peuvent aussi apprendre à générer des messages ciblant un public particulier. Ce n’est pas pour rien que Sam Altman, CEO d’OpenAI, et Sundar Pichai, CEO de Google, tirent eux-mêmes la sonnette d’alarme face à leurs propres technologies, ou encore que le secrétaire général des Nations unies appelle le monde à l’action.
RM : Pouvez-vous donner des exemples de fake news produites par l’IA générative qui se sont déjà propagées à grande échelle ?
J. Mardas : Rappelons tout de même qu’en l’état, l’IA générative ne propage pas d’elle-même l’information. Mais d’ici quelques mois, cette pratique sera probablement devenue « mainstream » – et on peut d’ores et déjà citer de nombreuses fake news qui ont dupé les foules. En 2019, une vidéo deepfake semblant montrer Nancy Pelosi, présidente de la Chambre des représentants des États-Unis, en état d’ivresse a été largement partagée sur les réseaux sociaux. En 2021, une autre vidéo deepfake, faisant dire à Joe Biden qu'il allait interdire les armes à feu, a suscité un mouvement de panique et de protestation en ligne. En 2022, Éric Zemmour, connu pour son islamophobie, a tenté d’induire en erreur la communauté musulmane en la ciblant avec des photos fabriquées de toutes pièces, censées présenter des jeunes femmes d’origine maghrébine qui n’auraient plus peur la nuit grâce à lui. Et, récemment, un faux compte Bloomberg a annoncé que le Pentagone était en feu… Cependant, la sphère politique n’est pas la seule concernée. Début 2023, un compte sur Twitter s’apparentant à l’entreprise Eli Lily a annoncé que l’insuline était gratuite. L’entreprise a perdu 15 Mds $ de stock market value. Cette liste est malheureusement loin d’être exhaustive.
RM : Quelles réponses propose votre entreprise Buster.Ai face à ces dérives ?
J. Mardas : Nous avons développé une plateforme B2B SaaS avec des IA qui comptent parmi les plus avancées pour détecter et agir contre les deepfakes et les fake news. Nous utilisons une variété de techniques, parmi lesquelles l’analyse d'images et de vidéos, pour identifier des signes de manipulation tels que des mouvements non naturels ou des incohérences, la compréhension sémantique des langues pour identifier et expliquer les tentatives de tromperie, ou encore la surveillance des médias sociaux pour repérer les utilisateurs et « fermes » de bots ou trolls susceptibles de diffuser des contenus mensongers. Notre solution est particulièrement utilisée par des acteurs des médias et de la politique.
RM : À l’échelle individuelle, comment peut-on repérer les fake news produites par l’IA générative ?
J. Mardas : Les IA génératives ont encore du mal à comprendre le contexte et font des erreurs subtiles dans le langage ou la logique, ce qui constitue un indice. De plus, la plupart des IA génératives n’ont pas une connaissance de l'actualité récente ou d’événements spécifiques car elles ne sont pas conçues pour se nourrir d’Internet ; il arrive donc qu’elles semblent totalement déconnectées de la réalité – on parle alors d’« hallucination ». Cependant, ce n’est qu’une question de temps pour que ces limites soient levées. Dans cette optique, exercez votre scepticisme : si un article semble destiné à vous mettre en colère ou à vous effrayer, ou au contraire vous paraît trop beau pour être vrai, il est probablement faux. Vérifiez la source des contenus : proviennent-ils d’organisations fiables comme un site de presse ou d'un utilisateur de médias sociaux ? Cherchez des preuves à l'appui des affirmations qui vous sont présentées : trouvez-vous des citations d'experts ou d'autres sources, des statistiques ou des données ? Et sur les vidéos, guettez des yeux qui ne clignent pas fréquemment, une bouche qui n’est pas synchrone avec les mots prononcés, des aberrations dans l’éclairage, les reflets ou les contours, des symétries parfaites qu’il est impossible de produire en réalité… En définitive, faites preuve de bon sens. Si une chose ne vous semble pas correcte, c'est probablement qu'elle ne l'est pas.
Propos recueillis par Louis Armengaud Wurmser (E10), responsable des contenus ESSEC Alumni
Paru dans Reflets Mag #148. Voir le preview du numéro. Recevoir les prochains numéros.
Commentaires0
Vous n'avez pas les droits pour lire ou ajouter un commentaire.
Articles suggérés