Académie des technologies

Lutter contre la mésinformation à l’ère de l’IA : six propositions pour défendre l’intégrité de l’information

Group 12 Copy Created with Sketch.

Communiqué de presse – Paris, le 13 décembre 2024

Dans un rapport publié aujourd’hui, l’Académie des technologies alerte sur les dangers de la mésinformation amplifiée par l’IA générative ; elle formule six recommandations stratégiques visant à renforcer la résilience de la société face aux fake news et à préserver la crédibilité de l’information. Elle souligne par ailleurs les avancées de l’IA curative dans la lutte contre la désinformation et la construction d’un cadre réglementaire européen pionnier en la matière. 

La mésinformation désigne des informations, soit involontairement erronées, soit délibérément falsifiées ; dans ce dernier cas, on parle de désinformation, d’infox ou de fake news. Ces pathologies de l’information sont un phénomène ancien, mais l’essor des technologies numériques et de l’IA a considérablement accru leur impact. Aujourd’hui, elles se propagent à grande vitesse sur Internet, car les contenus faux, généralement plus attractifs que les vrais, sont encouragés par les modèles économiques des grandes plateformes numériques qui reposent sur l’attention des internautes. La thématique de la mésinformation-désinformation a d’ailleurs été classée cette année au premier rang des risques systémiques mondiaux à court terme dans le rapport du Forum économique mondial (WEF).

Points clés du rapport :

  • L’IA générative : une source potentielle de désinformation
    L’architecture autorégressive des grands modèles de langage (LLMs), qui produisent en sortie un texte prolongeant le plus vraisemblablement un texte soumis en entrée, se prête à engendrer des « hallucinations » : lorsque le plus vraisemblable l’est insuffisamment, alors le rapport à la vérité se distend. En plus de cette carence structurelle, les LLMs présentent des biais dus à la non-neutralité de leurs bases d’entraînement, voulue ou non par leurs éditeurs.
  • L’IA curative : un espoir pour contrer les dérives
    Face à l’IA falsificatrice, une IA curative se développe, offrant des solutions pour contrer la désinformation. Des outils sont disponibles, notamment en Europe, avec la plateforme vera.ai, visant à détecter les faux comptes coordonnés sur les réseaux sociaux, à identifier les contenus artificiels et à assister les journalistes et fact checkers dans leurs vérifications.
  • L’Europe, en avance en termes de régulation de l’information numérique
    Relativement à d’autres régions du monde, l’Europe est en avance dans la construction d’un appareil juridique visant à éradiquer la désinformation en ligne et à promouvoir l’honnêteté de l’information. Avec le Digital Services Act (DSA) et l’AI Act, cet appareil impose aux grandes plateformes une analyse de risques de désinformation et la mise en œuvre des mesures techniques et humaines pour les réduire. Le service VIGINUM, créé en France en 2021 pour lutter contre les ingérences étrangères, vient renforcer le dispositif européen.
  • Les six propositions de l’Académie des technologies
    Pour établir une politique publique de lutte contre la désinformation, en mettant l’accent sur l’éducation, le renforcement de la régulation et l’amélioration des outils de détection, l’Académie des technologies recommande de :

    • Développer un chatPedia au sein de l’Éducation nationale : un outil collaboratif co-utilisé et co-amélioré par les professeurs et les élèves, pour développer l’esprit critique et promouvoir l’éducation à l’IA.
    • Construire un socle statistique du numérique et de ses impacts pour suivre et évaluer l’impact des pratiques en ligne, notamment sur les réseaux sociaux, sur les pratiques hors ligne qu’elles sont susceptibles d’influencer.
    • Instaurer un Comité consultatif de l’information scientifique et technique placé auprès de l’Arcom et s’appuyant sur les experts des académies nationales, pour améliorer le traitement de ce type d’information par les médias audiovisuels et les réseaux sociaux.
    • Mettre en place un Observatoire de l’édition artificielle pour analyser et rendre publics les biais des grands modèles de langage les plus populaires.
    • Imposer aux grandes plateformes l’affichage d’un « score d’artificialité » pour informer sur l’origine et sur la véracité des contenus les plus viraux.
    • Ajouter, dans le code de la Défense, un dispositif de sanctions des opérations de désinformation portant atteinte aux intérêts fondamentaux de la Nation et orchestrées par des puissances étrangères.

Lire le rapport

 

Contacts presse

Olivier COPPERMANN – olivier.coppermann@seitosei-actifin.com – +33 6 07 25 04 48
Anne-Claire TATON – anne-claire.taton@seitosei-actifin.com – +33 6 58 92 63 56