2024 : année test de la lutte contre la désinformation ?

28.08.2024

L'année 2024 constitue un tournant décisif dans la lutte contre la désinformation, avec des élections cruciales en Europe en juin dernier et en novembre prochain aux États-Unis. Les nouvelles régulations et initiatives mises en place sont scrutées de près pour évaluer leur efficacité face à un fléau qui menace les processus démocratiques à travers le monde.

L'année 2024 marque ainsi un moment charnière pour les démocraties, avec des scrutins qui se déroulent dans un climat où la désinformation, amplifiée par les technologies numériques comme les deepfakes, représente une menace sans précédent pour l'intégrité électorale. La capacité des gouvernements et des plateformes numériques à endiguer ce phénomène est déterminante pour la crédibilité des résultats électoraux et la confiance du public dans les institutions démocratiques.

Image powered by IA

Un cadre réglementaire européen qui cible la publicité en beta test

Face à cette menace croissante, l'Union européenne a renforcé son arsenal législatif avec l'entrée en vigueur du Digital Services Act (DSA) qui impose aux grandes plateformes en ligne, des obligations strictes (signalisation, transparence, interdiction du ciblage sur données sensibles et des mineurs) en matière de modération des contenus illégaux et de désinformation, en particulier dans le cadre des risques liés aux processus électoraux. Le DSA ne se contente pas de réguler ainsi la publicité politique ; il exige donc aussi que les plateformes mettent en place des systèmes capables de détecter et d'étiqueter les deepfakes, ces vidéos manipulées par l'IA qui peuvent tromper l'opinion publique.

Le récent Règlement européen sur les publicités politiques complète cette approche en imposant une transparence accrue sur l'origine et le financement des publicités électorales en ligne et en excluant certaines catégories de données personnelles du ciblage. Ces mesures visent à empêcher que des campagnes de désinformation puissent manipuler les électeurs sans que leur provenance soit clairement identifiée.

Les plateformes face l’IA et la manipulation politique

Les élections européennes de 2024 ont été marquées par des tentatives significatives de désinformation, mettant à l'épreuve les nouvelles régulations mises en place par l'UE. Malgré les efforts accrus pour surveiller et contenir les contenus trompeurs, des incidents notables ont été signalés, tels que des campagnes de désinformation ciblées et des deepfakes, notamment en Europe de l'Est. Ces attaques ont illustré la persistance des menaces et l'importance d'une vigilance continue pour protéger l'intégrité électorale. 

Pour répondre à ces enjeux, YouTube a par exemple déployé des algorithmes sophistiqués pour détecter et réduire la visibilité des vidéos contenant des informations fausses ou trompeuses et a introduit des pop-ups informatifs qui redirigent les utilisateurs vers des sources fiables lorsqu'ils cherchent des contenus liés aux élections. Les annonceurs doivent également confirmer leur identité et leur éligibilité avant de publier des annonces électorales et Youtube impose une identification obligatoire du contenu IA (“Labels IA” ) produit en s’appuyant notamment sur des outils d'étiquetage de contenu dans Creator Studio. De son côté Meta, qui dispose  d’un “Elections Operations Center”, actif pendant les périodes électorales pour identifier et gérer les menaces en temps réel, impose aussi que tous les annonceurs politiques divulguent l'utilisation d'IA dans les publicités électorales. 

Un exemple frappant de l'utilisation de l'intelligence artificielle pour manipuler l'opinion publique est survenu récemment, lorsque l'ancien président américain Donald Trump a partagé sur ses réseaux sociaux des images créées par IA représentant la chanteuse Taylor Swift dans des prises de positions de soutien qui ne se sont jamais produites. Ces images avaient pour but de promouvoir un message politique, brouillant ainsi la frontière entre la réalité et la fiction. Ce type de contenu, permis par le réseau social X (anciennement Twitter) illustre  le changement en politique de régulation de la plateforme depuis sa prise de contrôle par Elon Musk.  De nombreuses entreprises ont depuis cette évolution réduit ou suspendu leurs dépenses publicitaires sur la plateforme en raison de préoccupations liées à la modération des contenus et à la montée des discours de haine. 

L'année 2024 constitue donc une année test pour la lutte contre la désinformation. Avec des scrutins majeurs en Europe, aux États-Unis mais aussi en Inde, les régulations comme le DSA et les efforts des plateformes sont sous le feu des projecteurs depuis le début de l’année. Leur capacité à contenir la désinformation déterminera en grande partie l'intégrité des élections et la confiance des citoyens dans la démocratie. 

© the-gap.eu 2023