top of page
Rechercher

IA et désinformation : sommes-nous face à une crise mondiale de l’information ?

  • francknegro1900
  • 23 sept.
  • 8 min de lecture

Désinformation, chambre d’écho et polarisation. – La désinformation, définie comme une information fausse intentionnellement propagée dans le but de nuire ou de porter préjudice, est devenue une menace significative pour nos institutions démocratiques et la stabilité sociale. Le développement de l’intelligence artificielle au cours de la dernière décennie, et plus particulièrement l’essor de l’IA générative depuis le lancement de la version 3.0 de ChatGPT, a considérablement accru les possibilités de propagation de la désinformation, avec les risques que cela fait peser sur nos démocraties.


L’usage de systèmes de recommandation fondés sur des algorithmes d’IA permet, par exemple, de cibler de manière extrêmement précise certaines populations et de leur diffuser les contenus auxquels elles sont le plus réceptives. Mis à disposition sur des plateformes comme les réseaux sociaux, ces contenus ciblés peuvent être propagés en masse et de façon quasi instantanée, dans le but d’influencer les pensées et les comportements d’électeurs lors d’élections nationales ou régionales. Ils contribuent ainsi à façonner l’opinion publique et à saper la confiance dans les institutions. Tel fut le cas, par exemple, lors du scandale Cambridge Analytica : cette société de conseil politique, fondée en 2013, avait exploité sans leur consentement les données de millions d’électeurs afin de construire des profils psychologiques destinés à influencer leur comportement électoral. L’entreprise a joué un rôle important dans la campagne du Brexit ainsi que dans l’élection présidentielle de Donald Trump en 2016. Le scandale, révélé en 2018, a conduit à la fermeture de la société la même année.


Or les algorithmes utilisés par les plateformes numériques, en particulier les réseaux sociaux désormais privilégiés par les jeunes générations pour s’informer, ne favorisent pas la diffusion d’informations fiables et contrôlées. Ils privilégient avant tout l’engagement des utilisateurs, en promouvant des contenus émotionnellement chargés dont les études montrent qu’ils se propagent bien plus rapidement que tout autre type de contenus. Les algorithmes d’IA déployés par des plateformes comme Facebook, YouTube ou X (anciennement Twitter) contribuent ainsi à créer, de manière automatique et à grande échelle, des environnements numériques où prolifèrent des récits extrémistes et clivants, précisément parce qu’ils suscitent un fort niveau d’interactions. Ce mécanisme favorise la constitution de ce que les chercheurs en sociologie des médias et en communication appellent, depuis l’essor des réseaux sociaux, des "chambres d’écho". L’expression désigne le fait que les utilisateurs de ces plateformes sont principalement exposés à des informations ou opinions qui renforcent leurs croyances et convictions, plutôt que de les confronter à des points de vue divergents. Autrement dit, ils se retrouvent confinés dans une bulle informationnelle, avec une capacité limitée à s’ouvrir à d’autres perspectives.


La personnalisation, les moteurs de recommandation et les systèmes de filtrage opérés par les algorithmes ne se contentent donc pas de renforcer l’exposition des individus à des idées proches des leurs ; ils les protègent également de l’irruption d’opinions contradictoires, pourtant indispensables à la construction de l’esprit critique. Ces mécanismes, diffusés à grande échelle par des algorithmes de plus en plus sophistiqués, engendrent ainsi des risques accrus de polarisation des débats et de radicalisation des opinions, peu propices au dialogue et à la délibération démocratique.


L’usage de l’IA générative lors d’élections. – A ces phénomènes bien connus viennent s’ajouter l’usage récent des IA génératives, dont les effets sur la sphère informationnelle globale inquiètent de plus en plus les chercheurs en sciences sociales. Reste néanmoins encore à documenter les risques possibles que peuvent faire peser ses technologies sur nos démocraties. Â été ainsi publié en mai 2025 un rapport rédigé par un collectif d’experts affiliés à l’IPIE (International Panel on the Information Environment), intitulé : Generative AI in Electoral Campaigns. Il a pour ambition de fournir la première analyse mondiale consacrée à l’usage de l’intelligence artificielle générative lors des élections organisées sur l’année 2024.

 

Celle-ci représente en effet un terrain de recherche privilégié, puisque plus de la moitié de la population mondiale a été appelée à voter lors de scrutins nationaux. Or, à l’occasion de chacun de ces scrutins, rappellent les auteurs du rapport, des outils d’IA générative ont été mobilisés afin d’influencer les électeurs, de diffuser de fausses informations et de perturber les processus démocratiques. L’étude repose sur une base de données ouverte recensant 215 incidents dans 50 pays, avec un double objectif : 1) rendre compte de manière globale de l’usage de l’IA générative dans un contexte électoral, 2) fournir aux décideurs publics et aux acteurs du secteur technologique des recommandations en matière de gouvernance et de transparence, de manière à renforcer la confiance des citoyens et la résilience des systèmes électoraux.

 

Le document de synthèse destiné aux décideurs politiques met en évidence quatre principaux constats, disponibles dans sa version anglaise sur le site de l’IPIE :

 

  • L’IA générative est impliquée dans la plupart des élections. – En effet, 80% des pays ayant organisé des élections nationales en 2024 ont connu un usage de l’IA générative durant la campagne. Parmi les cinquante pays analysés, huit ont enregistré dix incidents ou plus, dont trente aux États-Unis et trente en Inde. Le cas de la Roumanie a particulièrement retenu l’attention : selon les conclusions de la Cour constitutionnelle, les risques de déstabilisation et de manipulation de l’information pesant sur l’intégrité électorale ont conduit à l’annulation des résultats du premier tour de l’élection présidentielle du 24 novembre 2024. L’un des déclencheurs majeurs fut la révélation de documents suggérant qu’une opération de manipulation de l’opinion publique, à grande échelle, avait été menée via TikTok — plateforme particulièrement populaire en Roumanie — en faveur du candidat indépendant Călin Georgescu.

  • L’IA générative est principalement utilisée pour la production de contenus. – Dans 90% des incidents recensés, l’IA générative a servi à produire rapidement des contenus audio, visuels ou textuels – en particulier des vidéos truquées ou deepfakes – et à les intégrer à des systèmes permettant un ciblage de publics spécifiques à travers des messages personnalisés. Elle s’inscrit ainsi, la plupart du temps, dans le cadre d’opérations d’influence plus larges. Le rapport cite, par exemple, une vidéo synthétique montrant faussement, lors d’élections au Bangladesh, la candidate à l’Assemblée Abdullah Nahid Nigar annonçant son retrait de la course. La vidéo, générée par IA, s’est rapidement propagée sur les réseaux sociaux. De tels exemples montrent comment l’IA générative, combinée à des plateformes de diffusion de masse, permet aux acteurs de modeler à leur guise des récits politiques, d’usurper l’identité de personnalités publiques et de manipuler le débat démocratique.

  • La majorité des utilisateurs restent inconnus. – Dans près de 50% des cas (46% exactement), l’origine des contenus générés par IA n’a pas pu être déterminée. En d’autres termes, aucun auteur, producteur ou organisation n’a pu être identifié. Cet anonymat, qui répond le plus souvent à des finalités malveillantes ou stratégiques, complique fortement les processus d’attribution, de responsabilité et de régulation des plateformes. À terme, il représente un défi majeur pour la transparence et la qualité de la communication politique. Les rédacteurs du rapport recommandent donc de renforcer les capacités de détection, d’instaurer des normes de divulgation et de mettre en place des mécanismes de supervision efficaces.

  • La plupart des usages sont nuisibles lors des élections. – Enfin, les auteurs ont procédé à une classification de l’ensemble des incidents recensés dans la base de données selon trois catégories : bénéfiques, nuisibles ou incertains quant à leurs implications électorales. Or, 69% — soit plus des deux tiers — se sont révélés avoir eu un impact néfaste sur le processus électoral. Parmi les cas attribués à des acteurs étrangers, tous avaient une finalité nuisible, ce qui témoigne, soulignent les auteurs, d’un intérêt constant de la part d’entités extérieures à interférer dans les processus électoraux et à manipuler la perception des électeurs.

 

Si l’IA générative peut, en théorie, être mobilisée pour produire des contenus positifs, voire inspirants, susceptibles de servir l’éducation civique des électeurs et de les aider à exercer pleinement leur devoir de citoyens, le rapport montre qu’elle est, dans la pratique, le plus souvent utilisée à des fins malveillantes visant à manipuler l’opinion publique et à influencer les comportements électoraux. Sa capacité à générer rapidement des contenus variés est renforcée par la facilité avec laquelle elle s’intègre à d’autres outils technologiques de diffusion, en particulier les plateformes de réseaux sociaux. Ce couplage offre à des acteurs malintentionnés, qu’ils soient locaux ou étrangers, la possibilité d’inscrire l’IA générative au cœur de stratégies de communication de masse et de ciblage personnalisé, transformant ainsi ces technologies en instruments puissants de propagande et de désinformation en période électorale.

 

Une crise mondiale de l’information – Mais la désinformation n’affecte pas seulement la sphère du débat public et démocratique: elle peut également avoir des répercussions directes sur la production, l’économie et les marchés financiers. Les décideurs économiques et les investisseurs fondent en effet une partie de leurs choix sur les informations quotidiennement diffusées par les médias numériques. Ce sont donc ces mêmes informations qui influencent en profondeur les comportements d’investissement et peuvent, en cas de manipulation ou d’altération, déclencher des mouvements d’instabilité financière et boursière. Autrement dit, l’information et le niveau de confiance que nous lui accordons constituent un pilier essentiel, non seulement pour le bon fonctionnement de nos démocraties, mais aussi pour la prospérité de nos économies. C’est ce point crucial qu’une tribune publiée dans Le Monde le 22 septembre 2025 rappelle avec insistance.

 

Dans ce texte, un collectif de onze économistes de renommée internationale, parmi lesquels Daron Acemoglu, Joseph Stiglitz et Philippe Aghion, alerte sur ce qu’il qualifie de "crise mondiale de l’information" sans précédent, menaçant la prospérité économique et le progrès humain. En effet, si la plupart des gouvernements semblent s’être pris de passion pour l’intelligence artificielle, ils négligent d’investir dans ce qui demeure pourtant, selon les auteurs, l’un des piliers essentiels de l’économie du XXIᵉ siècle : l’information. "Faute d’informations fiables, rappellent-ils, il est impossible de relever les défis économiques, sociaux et environnementaux les plus urgents de notre époque."

 

Les auteurs mettent en lumière les risques considérables liés à l’affaiblissement de l’information indépendante et vérifiée, ainsi que les menaces que fait peser la désinformation sur la stabilité économique et financière. Ainsi, en 2024, pas moins de 90 pays auraient été la cible de « tentatives de manipulation de l’information par des États étrangers ». L’essor de technologies telles que l’intelligence artificielle générative risque, selon eux, d’amplifier encore ce phénomène et de rendre la lutte contre la propagation des fausses informations en ligne toujours plus difficile.

 

Ils soulignent que les seules forces du marché sont incapables de protéger ce bien public essentiel qu’est l’information. Elles orientent en effet les revenus vers les modèles économiques dominants des grandes plateformes, ce qui fragilise directement les médias traditionnels et indépendants. À cela s’ajoutent les investissements massifs de pays comme la Russie dans la désinformation et la propagande, tandis que les grandes démocraties peinent à mobiliser des ressources suffisantes pour soutenir les médias libres.

 

Face à ce constat, ils appellent à une « action publique décisive », articulée autour de deux priorités : 1) protéger les médias d’intérêt public et 2) façonner les marchés de l’information de demain. La première mesure passerait par un investissement public dans « de nouveaux modèles nécessaires à la promotion, au soutien et à la protection des médias libres et indépendants », notamment via la création d’un Fonds international pour les médias d’intérêt public. La seconde consisterait à instituer une véritable "politique industrielle de l’information", destinée à favoriser l’émergence d’un écosystème médiatique viable et indépendant, tout en mettant en place une régulation adaptée à une économie transformée par l’IA.

 

Il en va, insistent les auteurs, de la viabilité d’un espace informationnel en voie de dégradation rapide, dont la fragilité compromet à la fois le bon fonctionnement des économies et les bénéfices que l’on attend de la révolution de l’intelligence artificielle.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page