Alors que Monaco mise sur le numérique pour moderniser ses services, la principauté s’expose aussi à de nouveaux risques. Rumeurs, “fake news” ou “deepfakes” peuvent circuler vite et fort sur Internet et provoquer une crise réputationnelle, avec un impact décuplé par la visibilité internationale du territoire. Historien et professeur associé à Science Po, spécialiste de la manipulation de masse, David Colon (1) alerte sur ces menaces invisibles qui, dans un État aussi exposé que Monaco, pourraient fragiliser l’opinion publique ou l’image des institutions. Interview.
Quel rôle jouent Internet et les réseaux sociaux pour l’influence et la désinformation ?
Internet et les médias sociaux ont démultiplié les capacités d’influence, et ce, prioritairement au profit des acteurs malveillants qui ont massivement investis ces outils, afin d’agir sur les perceptions et les comportements.
Quels sont les pays qui font le plus appel à l’influence et à la désinformation, et avec quels objectifs ?
Historiquement, depuis l’époque tsariste, la Russie a une longue tradition d’influence, dans la mesure où elle s’efforce sur la scène internationale de donner une image de sa force bien plus grande qu’elle ne l’est en réalité. Mais l’influence en tant que marché et industrie est née et s’est développée aux Etats-Unis. C’est dans ce pays qu’ont été créés les relations publiques, la publicité scientifique de type moderne, le marketing, les sondages et la communication politique moderne. Maintenant, à l’ère numérique, les Etats-Unis n’ont plus le quasi-monopole de ce marché de l’influence, dès lors que des pays comme la Russie, l’Inde ou Israël se sont fait des exportateurs de cette industrie d’influence, tantôt dans le marketing digital, tantôt dans la communication politique, tantôt dans le lobbying, tantôt dans les trois à la fois.
« Internet et les médias sociaux ont démultiplié les capacités d’influence, et ce, prioritairement au profit des acteurs malveillants qui ont massivement investis ces outils, afin d’agir sur les perceptions et les comportements »
Quels sont les leviers utilisés par Monaco pour contrôler, ou orienter, la manière dont les médias internationaux parlent du pays ?
Monaco est un exemple de communication institutionnelle réussie. La famille régnante a été un puissant vecteur d’influence et de notoriété à l’échelle globale, et ce, au moins depuis le prince Rainier III (1923-2005). Ce serait plutôt aux autres Etats plus grands de prendre des leçons.
Peut-on comparer la stratégie de communication de Monaco à celle d’autres entités à forte dimension symbolique, comme le Vatican ou le Qatar ?
Le Vatican et le Qatar disposent de réseaux d’influence plus structurés et plus organisés à l’échelle globale que Monaco. Aujourd’hui, le Qatar est sans doute le plus petit Etat au monde qui exerce la plus grande influence, rapportée à sa taille et à sa population. D’abord en raison de sa chaîne de télévision Al Jazeera, mais aussi grâce à sa diplomatie par le sport, qui en a fait un acteur mondial. Et aussi en raison d’une activité d’influence moins visible à travers un certain nombre de relais, des organisations non gouvernementales, des “think tanks” qui lui permettent de peser sur les relations internationales et de façon disproportionnée par rapport à sa taille.

À l’heure de l’intelligence artificielle (IA) et des “deepfakes” [un faux visuel réaliste créé par IA pour imiter une personne ou ses propos — NDLR], les micro-États comme Monaco sont-ils plus vulnérables ou plus agiles face aux nouvelles formes de manipulation ?
Plus que la taille, ce qui est un avantage, c’est de former une communauté homogène et disposant de sources d’information fiables, et dans laquelle les citoyens ont confiance. A l’heure numérique, nous sommes toutes et tous exposés à des campagnes d’influence, même celles qui ne nous visent pas directement, mais que les algorithmes de recommandation des plateformes présentent à nos yeux. Cela permet aux manipulations de l’information de franchir plus aisément les frontières et de gagner en ampleur et en visibilité depuis le recours à l’IA générative [une IA produisant textes, images ou sons originaux à partir de données existantes ou de simples consignes — NDLR]. Une problématique qui est essentielle pour tous les Etats, c’est celle de la souveraineté informationnelle, aussi bien dans le temps des médias traditionnels que dans celui des médias numériques. Ce dont souffre l’Europe aujourd’hui, c’est de ne pas avoir ses propres géants du numérique et ses propres médias sociaux qui lui garantiraient ce minimum de souveraineté numérique, la protégeant, au moins en partie, des ingérences américaines, russes, chinoises et d’ailleurs.
« La première grande opération d’ingérence documentée à l’ère des réseaux sociaux, c’est le référendum du Brexit [qui s’est déroulé le 23 juin 2016 — NDLR] au Royaume-Uni. Il y a eu à la fois des interférences russes et américaines »
Un virage a été raté à un moment donné du côté européen ?
L’Union européenne (UE) a peut-être trop confiance en les vertus du marché. Et notamment dans le champ de l’information, parce que, comme d’autres avant nous, nous avons cru qu’un libre marché de l’information mondial, même à l’ère numérique, allait nécessairement faire prévaloir l’information de qualité sur l’information médiocre, et mettre en avant le vrai sur le faux. Dans les années 1990, on se souvient de ce discours dithyrambique adressé à Internet, et à ce que l’on appelait alors « les autoroutes de l’information », avec ses promesses extraordinaires. Mais cette illusion nous a aveuglés, dès lors qu’en adoptant un modèle publicitaire, les médias sociaux ont permis de fausser le libre marché des idées, et que, par ailleurs, leurs plateformes se sont prêtées à des manipulations de la part des annonceurs. Enfin, nous n’avons pas su combattre suffisamment la prolifération de faux comptes, notamment de « bots », c’est-à-dire de comptes automatisés.
On entend de plus en plus parler de « guerre coginitive » : de quoi s’agit-il ?
La guerre cognitive est une guerre qui a pour théâtre nos esprits et pour arme des techniques de manipulation qui font appel à des biais heuristiques ou cognitifs qui nous rendent « atteignable » par ces opérations d’influence. Notre cerveau est devenu directement accessible depuis que nous utilisons massivement des médias sociaux sur des écrans connectés et que le moindre de nos gestes est enregistré et transmis pour une exploitation publicitaire ultérieure. Aujourd’hui, la guerre de l’information est d’abord une guerre mondiale pour la conquête des esprits.
Un exemple ?
L’ancien chef d’état-major des armées, Thierry Burkhard, considère que TikTok est une « arme informationnelle » qui capte non seulement nos données comportementales, mais influence aussi nos perceptions et conduit à une distorsion entre la réalité et sa perception par celles et ceux qui utilisent cette plateforme.
« Le Vatican et le Qatar disposent de réseaux d’influence plus structurés et plus organisés à l’échelle globale que Monaco. Aujourd’hui, le Qatar est sans doute le plus petit Etat au monde qui exerce la plus grande influence, rapportée à sa taille et à sa population »
Qui a pensé en premier à mener cette guerre cognitive ?
Historiquement, la guerre cognitive est une dimension de ce que l’on a appelé pendant très longtemps « les opérations de guerre psychologique », les « PsyOps ». Ces opérations ont été développées dans un environnement militaire, afin de tromper l’ennemi, de le « décevoir » au sens anglais de « deception », de l’intoxiquer. Ces techniques, qui étaient à l’origine des techniques militaires, ont été transposées à la sphère civile par un certain nombre d’acteurs privés de l’influence, comme la société britannique Cambridge Analytica. Ils ont saisi l’opportunité offerte par les données massives produites par les médias sociaux, et en l’espèce Facebook, pour interférer avec l’esprit des utilisateurs, en recourant à des techniques de manipulation de plus en plus ciblées.
Qu’ont apporté les technologies numériques, et le développement de l’IA en particulier, à cette guerre cognitive ?
On peut prendre l’exemple de l’IA générative et des modèles à large langage (LLM). Ils permettent une production plus massive, non seulement de contenus, mais aussi de faux comptes et de faux sites d’information qui vont ensuite propager et crédibiliser ces fausses informations. En même temps, les LLM permettent de produire des faux qu’il est de plus en plus difficile de distinguer du vrai contenu : fausses vidéos, faux enregistrements audio… Ils permettent un ciblage de plus en plus fin de ces opérations à destination de populations précises. A l’heure de l’IA, nous sommes de plus en plus submergés par ces faux contenus ou par des contenus qui mêlent le vrai et le faux. Ces contenus viennent polluer nos espaces informationnels à tel point qu’on peut les retrouver en résultat de recherche sur Google ou en réponse apportée par des “chatbots” [un programme informatique conçu pour simuler une conversation avec des utilisateurs humains, via du texte ou la voix, pour répondre à des demandes, fournir des informations, ou automatiser des tâches — NDLR].

Depuis février 2022 et l’invasion de l’Ukraine par la Russie, le Kremlin s’est lancé dans une guerre de l’information : cela a pris quelle forme et quelle ampleur sur Internet ?
Cette guerre de l’information est menée par le Kremlin depuis bien plus longtemps. Lorsque Vladimir Poutine a accédé au pouvoir, le 7 mai 2 000, il a fait adopter dès le mois de décembre 2 000 une stratégie nationale en matière informationnelle. Elle repose sur un volet de protection de l’espace informationnel russe à l’égard de toute ingérence étrangère et sur un volet plus offensif, destiné à venir perturber les espaces informationnels adverses. A tort ou à raison, le Kremlin considère que l’information occidentale est une menace existentielle pour la stabilité du régime. Et cela, en particulier depuis les révolutions de couleur [une série de soulèvements populaires en Europe de l’Est et en Asie centrale, entre 2000 et 2012 — NDLR], depuis la révolution Twitter, et depuis les manifestations sur la place Bolotnaïa à Moscou, en décembre 2011. Ce qui a changé en février 2022, c’est que le Kremlin a doublé sa guerre d’agression contre l’Ukraine d’une guerre de l’information systématique contre tous les Etats qui soutiennent l’Ukraine.
Quel est l’objectif ?
Il s’agit d’affaiblir le soutien apporté à l’Ukraine, en essayant de détourner l’attention des opinions publiques de ce qui s’y passe, en tentant de semer le chaos et la division au sein des sociétés occidentales, en s’efforçant de déligitimer les pouvoirs politiques, économiques, médiatiques ou scientifiques en place, ou en propageant tellement de contenus faux, que les citoyens des régimes démocratiques en viennent à douter de ce qui est vrai et de ce qui est faux. Comme l’écrivait l’historien français Marc Bloch (1886-1944) dans L’Étrange Défaite (1940), nous avons besoin de « ce minimum de renseignements nets et sûrs, sans lesquels aucune conduite rationnelle n’est possible » (2). L’objet principal de cette guerre de l’information, c’est de nous priver de la capacité d’agir rationnellement.
« Notre cerveau est devenu directement accessible depuis que nous utilisons massivement des médias sociaux sur des écrans connectés et que le moindre de nos gestes est enregistré et transmis pour une exploitation publicitaire ultérieure. Aujourd’hui, la guerre de l’information est d’abord une guerre mondiale pour la conquête des esprits »
Depuis son retour à la Maison Blanche le 20 janvier 2025, Donald Trump a, lui aussi, ouvert une guerre cognitive ?
Je ne suis pas encore tout à fait convaincu que Donald Trump soit véritablement un stratège. En revanche, je suis certain qu’il est entouré de stratèges de la guerre de l’information. Il y a eu son conseiller Steve Bannon, il y a eu Elon Musk, et il y en a d’autres, plus discrets, qui sont issus du Projet 2025 de la Heritage Foundation [le Projet 2025 est un document de 922 pages rédigé par le think tank conservateur The Heritage Foundation — NDLR]. A ce stade, ce qui est sûr, c’est qu’un certain nombre de postes très éminents au sein de l’administration fédérale américaine sont occupés par des gens qui sont étonnamment proches du Kremlin ou proches des vues du maître des lieux, Vladimir Poutine. Sous l’administration Trump, les Etats-Unis sont devenus un acteur de la menace informationnelle pour nos démocraties européennes. De fait, les Etats-Unis sont associés au Kremlin, à la Hongrie de Viktor Orban, dans une entreprise assumée de décomposition de l’UE, et de changements de régime dans les 27 pays qui composent l’UE.
Les Etats-Unis utilisent quels outils ?
Pour le moment, toutes les structures fédérales américaines qui avaient pour objet de détecter et de contrer les ingérences russes ont été démantelées. Il s’agissait de structures de contrat gérance au sein du FBI, de structures au sein du département d’Etat, ou au sein de la Cybersecurity and Infrastructure Security Agency (CISA). Tout cela a été mis à terre. C’est un point essentiel. Ces structures étaient destinées à protéger les Etats-Unis des ingérences étrangères, essentiellement russes, chinoises, iraniennes ou quatariennes. Elles étaient aussi des partenaires fiables et importants de notre propre système de défense face aux ingérences russes. Pendant des décennies, les Etats-Unis ont été des partenaires des européens dans la lutte contre ce type d’ingérences émanant du Kremlin, de la Chine… Aujourd’hui, les Européens se retrouvent bien seuls. Et puis, il existe une ingérence d’une autre nature.
Laquelle ?
En juillet 2025, Trump a menacé les produits brésiliens d’une surtaxe douanière de 50 % si le Brésil ne revient pas sur la condamnation de l’ancien président Jair Bolsonaro à une peine d’inéligibilité jusqu’en 2030 [en août 2025, Trump a mis sa menace à exécution. Le 11 septembre 2027, Jair Bolsonaro a été condamné à 27 ans et trois mois de prison pour tentative de coup d’Etat — NDLR]. Qu’arrivera-t-il demain, si l’administration Trump exerce une pression identique à l’égard de Monaco ou de la France ? On peut aussi anticiper un scénario à la roumaine, avec une ingérence à la fois russe et américaine dans le processus électoral. Avec, d’une part, une manipulation coordonnée des algorithmes de recommandation de TikTok, qui a faussé la perception des électeurs. Le candidat d’extrême droite Calin Georgescu avait 1 % d’intention de vote quatre semaines avant le scrutin, et il a finalement obtenu 23 % des suffrages exprimés. D’autre part, un grand nombre d’influenceurs très proches de la Maison Blanche, et en même temps pro-Kremlin, ont donné une audience considérable à Georgescu, et plus tard au candidat nationaliste George Simion.
Que faire pour protéger les scrutins à venir en Europe ?
Dans tous les scrutins européens à venir, il nous faut anticiper de possibles interférences étrangères à des niveaux inédits dans l’histoire de nos pays. Je pense notamment aux élections législatives en Moldavie [prévues le 28 septembre 2025 — NDLR], qui est un théâtre majeur de la guerre d’information menée par le Kremlin.
Sur Internet et sur les réseaux sociaux, l’objectif est d’exposer les gens à de faux contenus pour susciter quel type de réaction : l’interrogation, le doute, la colère… ?
L’objectif assumé est de faire advenir au pouvoir ce que le Kremlin appelle des « partis antisystèmes », généralement des partis extrêmes qui lui sont favorables. Pour cela, la Russie s’emploie non seulement à les favoriser par tous les moyens possibles, mais aussi à fausser le débat public pour amplifier les thèmes les plus susceptibles de provoquer mécaniquement du vote extrême. Par exemple, en France, la question très clivante et polarisante, de la guerre au Proche-Orient est constamment amplifiée par le Kremlin, y compris par des mises en scène d’agents sur le terrain, pour que le débat public se focalise là-dessus et génère du vote extrême.
Au final, quel est le but ultime recherché ?
L’expérience montre que le Kremlin ne cherche pas tant à faire élire un allié de circonstance, même s’il y a eu en 2016 et en 2024 Donald Trump, qu’à fragiliser dans la durée la confiance des citoyens dans les institutions démocratiques. Pour une raison simple : nos régimes démocratiques et libéraux sont attrayants pour les citoyens de ces régimes autoritaires. Plus de 800 000 Russes ont quitté leur pays depuis 2022. Le Kremlin s’emploie donc par tous les moyens à projeter une image détestable, et bien souvent fausse, de nos régimes démocratiques pour dissuader cet exode. Pour cela, le pouvoir russe porte atteinte à la légitimité des dirigeants élus, avec, par exemple, des attaques répétées contre le président français Emmanuel Macron et son épouse, souvent générées par IA et reposant sur une amplification massive de récits conspirationnistes. Au bout du compte, il s’agit surtout de produire un effet de fatigue informationnelle, de lassitude informationnelle pour priver les citoyens non seulement de la capacité, mais de l’envie même de chercher à savoir ce qui est vrai et ce qui est faux.
A quand remonte la première grande tentative de manipulation électorale en Europe via Internet ?
La première grande opération d’ingérence documentée à l’ère des réseaux sociaux, c’est le référendum du Brexit [qui s’est déroulé le 23 juin 2016 — NDLR] au Royaume-Uni. Il y a eu à la fois des interférences russes et américaines. Ces interférence n’émanaient pas de l’administration américaine, mais de Steve Bannon, qui a créé avec l’argent du milliardaire Robert Mercer l’entreprise Cambridge Analytica. Une filiale de Cambridge Analytica est très directement impliquée dans la campagne en faveur du « leave » [« quitter » l’UE — NDLR]. Dans son livre Les Ingénieurs du chaos (2019), Giuliano da Empoli (3) a très clairement montré comment la colère est devenu le moteur majeur de la mobilisation électorale, précisément parce que les médias sociaux qui se développaient à l’époque, permettaient de l’identifier, de la canaliser et de l’orienter vers un vote protestataire, dans le cadre d’opérations de manipulation des perceptions des électeurs.
Si on se place du côté des dirigeants de ces grands réseaux sociaux, cela signifie que la qualité, et surtout la vérité, ne sont pas leur priorité ?
A ce stade de nos connaissances, on peut affirmer que les dirigeants de ces plateformes numériques, reposant sur une base commerciale, ont d’abord cherché à conquérir le marché à tout prix. Leur objectif était de maximiser l’engagement de leurs utilisateurs, c’est-à-dire le fait de commenter, de “liker” [d’aimer — NDLR], ou de partager un contenu, parce qu’en retour cela maximise les revenus publicitaires. Ils n’ont jamais sincèrement considéré l’intégrité de leur plateforme comme une priorité. Les algorithmes des plateformes numériques commerciales valorisent les contenus les plus susceptibles de générer du profit. Or, il se trouve que ce sont les contenus avec la plus forte charge émotionnelle, ceux qui provoquent notamment la colère ou la peur qui font le plus d’audience.
Quelle est la conséquence ?
Cela a pour effet de provoquer mécaniquement une amplification des contenus toxiques. Les plateformes comme Meta le savent, et elles ne font rien pour changer leur dispositif. Leur situation est celle des industriels du tabac dans les années 1950, lorsque, ayant depuis longtemps conscience de la toxicité du produit, ils ont été confrontés à la mise en évidence par les médias de cette toxicité. Ils ont d’abord répondu en s’efforçant de fabriquer le doute sur cette dangerosité, puis en investissant massivement dans une activité de lobbying pour retarder l’adoption des mesures nécessaires à la protection de la santé des consommateurs. Aujourd’hui, parce qu’ils véhiculent des contenus toxiques, les médias sociaux ont des effets toxiques sur un grand nombre d’utilisateurs.
Ces « effets toxiques » peuvent déboucher sur quoi, concrètement ?
Les effets toxiques provoqués par les médias sociaux peuvent se traduire par des passages à l’acte violent, et même par des insurrections. L’assaut du Capitole des États-Unis par des partisans de Donald Trump le 6 janvier 2021 a été entièrement coordonné sur Facebook. Il y a aussi eu des massacres, comme le massacre des Rohingya en Birmanie en 2017, qui a été rendu possible par des produits Facebook. Il faut rappeler que la désinformation tue. Pour trouver une solution, j’espère que nous ne tarderons pas aussi longtemps que pour le tabac.
Quelle pourrait-être la solution ?
L’UE a fait le pari, qui s’est révélé perdant, de l’auto-régulation des plateformes. Le digital service act (4) repose en effet sur une forme de régulation qui fait encore très largement appel à l’auto-régulation des plateformes. Ce modèle a montré ses limites, dans la mesure où, jusqu’à présent, la crainte de la sanction, qui est une simple amende, n’a jamais été suffisante pour modifier le comportement des plateformes. Par conséquent, il faudrait imaginer une autre manière de procéder. J’en vois deux.
Quels sont ces deux leviers ?
La première consiste à appliquer la loi telle qu’elle existe, pour mettre devant leur responsabilité des dirigeants de plateforme qui, sachant que leur produit est toxique, continuent de le fournir à leurs utilisateurs. Ils laissent en conscience des activités illégales se dérouler sur leurs plateformes. Pavel Durov, cofondateur de Telegram, a été mis en examen fin août 2024 sur la base de textes de loi existant (5), parce que sa plateforme refusait obstinément, depuis des années, de répondre aux injonctions de la justice pour des crimes commis à travers Telegram. Sa mise en examen a conduit Telegram à répondre désormais aux demandes de la justice, non seulement en France, mais aussi ailleurs en Europe. On a trop sous estimé l’effet de levier bénéfique que peut produire la simple application de la loi nationale. Dans un contexte géopolitique compliqué, avec certains membres de l’UE qui sont ouvertement pro-Kremlin, il ne faut pas toujours compter sur l’application de règlements européens. En revanche, à l’échelle nationale, il y a des choses que l’on peut faire.
« Ce dont souffre l’Europe aujourd’hui, c’est de ne pas avoir ses propres géants du numérique et ses propres médias sociaux qui lui garantiraient ce minimum de souveraineté numérique, la protégeant, au moins en partie, des ingérences américaines, russes, chinoises et d’ailleurs »
Quoi d’autre ?
A l’échelle globale du continent européen, et pas exclusivement des pays de l’UE, il me paraît nécessaire, comme à d’autres, notamment le mathématicien et écrivain français David Chavalarias ou l’écrivain et conseiller politique italo-suisse, Giuliano da Empoli pour ne citer qu’eux, de nous doter au plus vite de plateformes numériques d’intérêt public. Ces plateformes ne doivent pas reposer sur un modèle publicitaire, et elles pourraient éventuellement être placées sous l’autorité d’une fondation à but non lucratif. Elles fonctionneraient en faisant appel à des algorithmes transparents. Elles seraient financées par la puissance publique, par le secteur privé volontaire, et par les utilisateurs volontaires. Ces plateformes ne permettraient pas le recours à des “bots”. Cela nous permettrait de protéger rapidement et efficacement les esprits de nos concitoyens de ces interférences étrangères, et de la captation de leurs données à des fins d’espionnages ou à des fins publicitaires.
Les esprits des utilisateurs de réseaux sociaux et d’Internet ne sont pas capables de résister à ces messages mensongers et à la manipulation qui en découle ?
La psychologie humaine évolue beaucoup moins vite que nos outils numériques. Depuis longtemps, la psychologie sociale, la psychologie évolutionniste, et la psychologie cognitive ont montré que nos failles cognitives et psychologiques inhérentes à l’espèce humaine sont aisément exploitables. Elles l’ont déjà été pendant des décennies par l’industrie publicitaire. Aujourd’hui, elles sont massivement exploitées par ces acteurs malveillants. Face à cela, il existe des moyens de renforcer notre résistance psychologique. Notamment par l’éducation aux médias et à l’information, mais aussi par des dispositifs qui permettent de nous sensibiliser aux techniques de manipulation dont on peut être la victime. Pour mener des campagnes préventives de sensibilisation, on peut aussi miser sur le “pré-bunking”, une méthode qui consiste à préparer un public à reconnaître, et à résister à la désinformation et à la manipulation, avant qu’il n’y soit exposé directement. C’est un peu comme la vaccination : il s’agit de renforcer nos défenses immunitaires.
« Comme l’écrivait l’historien français Marc Bloch (1886-1944) dans L’Étrange Défaite (1940), nous avons besoin de « ce minimum de renseignements nets et sûrs, sans lesquels aucune conduite rationnelle n’est possible ». L’objet principal de cette guerre de l’information, c’est de nous priver de la capacité d’agir rationnellement »
Il y a aussi le “fact checking” [la « vérification des faits », notamment par des journalistes — NDLR], dans lequel beaucoup de médias se sont lancés ?
Le “fact checking” est un sujet très complexe. Cette technique consiste à identifier ce qui est vrai et ce qui est faux. J’ai un regard critique sur son efficacité, car, souvent, le “fact checking” ne convainc que les convaincus. En outre, il peut donner une audience excessive à des contenus de désinformation et contribuer à la propagation de fausses informations. C’est la raison pour laquelle les opérateurs du Kremlin sont particulièrement friands du “fact checking”. Faire vérifier du contenu occupe les journalistes, et provoque une fatigue informationnelle chez eux. Et puis, il y aussi le risque de l’erreur.
C’est-à-dire ?
Une erreur de “fact checking” peut avoir des conséquences dramatiques. D’ailleurs, on se souvient de l’erreur de “fact checking” relative à l’ordinateur portable de Hunter Biden, le fils de Joe Biden. Les spécialistes américains considéraient que c’était une opération de désinformation russe, mais ça n’était pas le cas. Du coup, tout cet écosystème de lutte contre les manipulations de l’information a été fragilisé par une offensive politique instrumentalisant cette erreur de “fact checking”, pour détruire tout le dispositif. Les acteurs de la menace informationnelle attendent cette erreur. Ils cherchent à pousser les “fact checkeurs” à la faute, pour les décrédibiliser.
Vous croyez dans quoi, alors ?
Il faut repenser notre rapport à l’information, pour ne plus courir après l’identification des fausses informations unes à unes, et se concentrer sur la dénonciation de la stratégie poursuivie par le Kremlin, ou d’autres, à travers leurs campagnes de désinformation. Ensuite, il faut mettre en œuvre des dispositifs permettant de sensibiliser les gens aux grandes techniques, au-delà des fausses informations elles-mêmes. Je crois davantage dans la vertu des dispositifs qui renforcent notre capacité à identifier des techniques, indépendamment de tout jugement relatif au contenu. Ce dispositif peut-être, par exemple, celui de l’agence française de vigilance contre les ingérences étrangères, Viginum, qui a été créé le 13 juillet 2021.
Comment fonctionne Viginum ?
Viginum détecte des ingérences numériques qui reposent sur une manipulation coordonnée du débat public par un acteur étranger, sans que jamais Viginum ne se penche sur les contenus pour dire « ceci est vrai » ou « ceci est faux ». Viginum n’est pas un ministère de la vérité. De la même façon, récemment, un collectif de spécialistes français du monde cyber a créé un petit “plugin” [un logiciel qui ajoute une nouvelle fonctionnalité à un programme ou à une application — NDLR] pour Google Chrome, qui permet de savoir, en ouvrant une page sur Internet, si elle contient des techniques de manipulation cognitive. Cette démarche agnostique par la sensibilisation à des techniques de manipulation est celle qui nous permettra le plus certainement de renforcer notre immunité.
« L’estimation basse du coût de la désinformation pour les entreprises est de 79 milliards de dollars par an. Cela correspond aux pertes boursières, aux coûts des mesures de protection que les entreprises doivent prendre… Ces coûts grandissent à mesure que la menace informationnelle se renforce »
Le plus souvent, la manipulation de masse est exercée à grande échelle par des industries, par des armées, par des gouvernements, ou par des candidats à des élections ?
Les acteurs impliqués sont souvent des acteurs étatiques autoritaires. Ils investissent le plus massivement dans des opérations de manipulation de l’information, parce qu’ils considèrent que la survie de leur régime est en jeu. Le Kremlin en est un exemple emblématique. Les opérations russes de manipulation représentent un budget de plusieurs milliards par an, ce qui est considérable. Lorsque je me suis rendu en Moldavie, aux côtés de notre ministre délégué aux affaires européennes, nos interlocuteurs ont fait valoir que les Russes auraient dépensé 200 millions d’euros pour interférer dans l’élection moldave. Ce qui, rapporté au nombre de personnes qui se sont rendues aux urnes, correspond à 133 euros par électeur. Cela peut paraître énorme. Mais les Moldaves nous ont rappelé qu’en termes de coût pour la Russie, cette somme ne représentait qu’une journée de guerre en Ukraine. Il est plus rationnel pour le Kremlin d’investir dans de l’influence numérique que dans la fabrication de chars.
Faire de l’influence et de la désinformation, ça coûte combien ?
C’est une industrie qui se démocratise. Car le coût d’accès à des opérations de manipulation de l’information a été considérablement abaissé ces dernières années, grâce au progrès des technologies, et en particulier l’IA générative [une IA générative crée du contenu original (texte, image, son) à partir de données existantes, en imitant la créativité humaine — NDLR]. L’Internet Research Agency (IRA) financée par l’oligarque russe Evgueni Prigojine reposait sur des centaines de jeunes gens qui travaillaient douze heures par jours, et cela coûtait plus d’une centaine de millions d’euros par mois au plus fort de leur campagne, pendant les élections américaines de 2016. Aujourd’hui, le même travail peut être fait par deux personnes, pour des sommes ridiculement basses. Cces techniques de manipulation sont donc presque à la portée de chacun.
Comment est organisée l’économie de la désinformation ?
Qu’elle soit étatique ou pas, une bonne partie de cet écosystème de la désinformation, est involontairement financé par les grandes entreprises. Parce que les grandes entreprises recourent à ce que l’on appelle la « publicité programmatique », c’est-à-dire des dispositifs algorithmiques de placements de leurs budgets publicitaires. Mécaniquement, leurs campagnes atterrissent sur des sites Internet de diffusion de la désinformation. Selon la start-up anti “fake news” NewsGuard, 67 % des grandes entreprises financent involontairement ces fausses informations, pour un budget global de 2,6 milliards de dollars par an. Par conséquent, les entreprises ont un rôle important à jouer, parce que les premières victimes de la désinformation dans le monde, ce sont elles.
Le coût annuel de la désinformation est estimé à combien ?
L’estimation basse du coût de la désinformation pour les entreprises est de 79 milliards de dollars par an. Cela correspond aux pertes boursières, aux coûts des mesures de protection que les entreprises doivent prendre… Ces coûts grandissent à mesure que la menace informationnelle se renforce. Pour la deuxième année consécutive, les experts du forum économique mondial ont classé la désinformation et la mésinformation comme « risque numéro un à échéance de deux ans » pour les organisations. Le forum économique mondial a créé un groupe d’experts, auxquels j’appartiens, qui a pour mission, d’ici 2026, de poser une feuille de route à destination du secteur privé, pour renforcer l’intégrité de l’information. Il est essentiel que les entreprises se mobilisent, parce qu’il en va de leur intérêt, mais aussi de leurs marchés, et du cadre démocratique dans lequel elles déploient leurs activités.
A son échelle, et alors que la principauté vit, en partie, sur son image, l’Etat monégasque doit s’inquiéter de ces campagnes de désinformation numérique ?
Aujourd’hui, il est nécessaire, et indispensable, que tous les Etats du continent européen s’engagent activement dans la lutte contre les manipulations de l’information, et dans la restauration d’un environnement numérique informationnel intègre. Dans le renforcement de l’écosystème médiatique traditionnel, qui a été fortement affaibli par la concurrence des médias sociaux, par des “chat bots” [des programmes qui dialoguent avec les humains pour informer, guider ou assister sur Internet — NDLR], et par la captation d’une partie du marché publicitaire par des géants du numérique américains, Reporters sans frontières (RSF) a lancé la certification Journalism Trust Initiative (JTI). Il s’agit d’une norme internationale destinée à mettre en valeur un journalisme de qualité, à destination des pouvoirs publics, des annonceurs publicitaires, et du grand public. Aujourd’hui, plus que jamais, il nous faut investir dans les médias de qualité, il faut aider les médias à survivre au choc de l’IA générative et de la concurrence des médias sociaux. Parce que c’est la condition sine qua non pour que nos concitoyens et nos concitoyennes restent en capacité, demain, de distinguer le vrai du faux. Les médias de qualité sont un signal au milieu d’un bruit généré par la désinformation, boostée à l’intelligence artificielle.
« A partir du moment où il est acquis que nous allons être de plus en plus pollués, plutôt que de passer notre temps à détecter la pollution, nous devrions nous concentrer sur l’information qui n’est pas polluée, pour la renforcer et la rendre plus visible »
Comment voyez-vous évoluer les techniques de manipulation de l’information dans les années à venir ?
Malheureusement, tout indique aujourd’hui que l’on va vers une pollution croissante de nos espaces informationnels. Cela tient à la croissance exponentielle des contenus générés et amplifiés par l’IA. Cela s’explique aussi par le perfectionnement des outils d’IA générative qui produisent des “deepfakes” de plus en plus difficiles à détecter. Et cela découle aussi de la multiplication des acteurs malveillants. Nous devons donc anticiper une pollution de plus en plus massive de nos environnements informationnels. Tout cela doit nous conduire à repenser notre stratégie de lutte contre les manipulations de l’information. Parce qu’à partir du moment où il est acquis que nous allons être de plus en plus pollués, plutôt que de passer notre temps à détecter la pollution, nous devrions nous concentrer sur l’information qui n’est pas polluée, pour la renforcer et la rendre plus visible. D’ailleurs, une bonne partie des moyens dévolus à la détection et à la veille de la désinformation pourrait être réorientée vers la valorisation de contenus de qualité.
1) La guerre de l’information de David Colon (Tallandier, 2023), 480 pages, 23,90 euros.
2) L’Etrange défaite de Marc Bloch (Folio histoire), 326 pages, 13,30 euros.
3) Les Ingénieurs du chaos de Giuliano da Empoli (JC Lattès), 200 pages, 8,49 euros (format numérique), 18 euros (format papier).
4) Le digital service act ou « règlement sur les services numériques », est une réglementation européenne qui vise à rendre Internet plus sûr, en imposant aux plateformes en ligne des règles strictes pour lutter contre les contenus illicites et les risques sociétaux. Il est entré en vigueur en août 2023, et il s’applique à tous les intermédiaires numériques, y compris les très grandes plateformes, les réseaux sociaux et les services d’hébergement.
5) Pavel Durov a été mis en examen en France fin août 2024 pour une douzaine d’infractions, qui ont à voir, pour la plupart, avec la quasi-absence de modération de sa messagerie Telegram, ainsi qu’à ses refus de coopération avec les autorités judiciaires françaises.



