« La puissance des réseaux sociaux dans la bataille de l’opinion inquiète de nombreux pays » | EUROtoday

Get real time updates directly on you device, subscribe now.


Les campagnes d’« info » sur des vaccins anti-Covid qui tuent plus qu’ils ne sauvent, les tags de mains rouges sur le mur des Justes relayés massivement, le movie Olympics Has Fallen (« Les Jeux olympiques ont sombré »), dans lequel la voix iconique de Tom Cruise semble révéler la « corruption » au sein du Comité worldwide olympique (CIO)… : la manipulation de l’info, véritable fléau, revêt une ampleur inédite avec l’IA.

Le level du soir

Tous les soirs à partir de 18h

Recevez l’info analysée et décryptée par la rédaction du Point.

Merci !
Votre inscription a bien été prise en compte avec l’adresse electronic mail :

Pour découvrir toutes nos autres newsletters, rendez-vous ici : MonCompte

En vous inscrivant, vous acceptez les circumstances générales d’utilisations et notre politique de confidentialité.

Les attaques informationnelles sont de plus en plus souvent orchestrées dans le cadre d’opérations organisées, adossées parfois à des cyberattaques, et amplifiées par la caisse de résonance des réseaux sociaux. Au level que l’intox occupe souvent plus d’espace que l’information et qu’il devient de plus en plus difficile de distinguer le vrai du fake.

Quels sont les enjeux de cette guerre informationnelle ? Avec quelles armes strategies et juridiques peut-on y faire face ? Faut-il museler les réseaux sociaux ? Les réponses de David Tortel, associé au sein des équipes Cybersécurité, chez Deloitte.

Le Point : Dans un rapport du 2 juin 2024, le Centre d’analyse des menaces de Microsoft (MTAC) a identifié un réseau d’acteurs affiliés à la Russie menant une série de campagnes d’affect malveillantes contre la France. L’objectif est-il d’alimenter le climat anxiogène qui pèse sur la compétition internationale de cet été ?

David Tortel : Pour Microsoft, cette campagne semble s’inscrire dans une longue custom de dénigrement de la compétition internationale par la Russie. Microsoft rappelle ainsi qu’en 1984 déjà, l’Union soviétique a boycotté les JO de Los Angeles et aurait encouragé les autres pays à faire de même. À l’époque, le département d’État américain avait même accusé l’Union soviétique de distribuer des tracts dans plusieurs pays afin de décourager les athlètes noirs de participer à la compétition au risque d’être la cible de violences par des citoyens américains extrémistes. Le narratif identifié dans le rapport est classique : diviser la société en jouant sur des ressorts émotionnels tels que la peur. Quarante ans après, Microsoft retrouve des similitudes avec cette dernière campagne analysée.

En réalité, ces opérations sont loin d’être isolées et nous assistons de plus en plus à une militarisation de l’info, le champ informationnel étant devenu un nouveau théâtre de conflit.À LIRE AUSSI Lutte contre les deepfakes : « On ne s’est toujours pas donné les moyens d’avoir une justice efficace »

Et pourtant, cette guerre informationnelle qui se déroule cette fois sur fond de guerre en Ukraine n’est pas nouvelle…

Elle est ancienne… De nombreux pays ont ajouté cette capacité à leur arsenal et on la retrouve dans la plupart des conflits, en particulier depuis la première guerre du Golfe.

Ce qui a changé, c’est la vitesse de propagation et la baisse significative du coût de diffusion. Avec l’IA, on dispose maintenant d’outils très puissants qui permettent d’industrialiser la création de contenus. Ces contenus peuvent ensuite être distribués by way of différents canaux, des ONG, de, ou encore des specialists, des agences de relations publiques et des agences de presse, afin de leur procurer le most de visibilité en ciblant une inhabitants effectivement encline à y être smart.

On entre dans une nouvelle forme de conflits, une guerre qui ne dit pas son nom, une guerre psychologique qui s’affaire à conquérir l’esprit des citoyens dans le however d’atteindre des objectifs politiques sans avoir recours à des moyens militaires. Une façon de gagner la guerre sans mener de bataille au sens propre du terme en quelque sorte. Et cette victoire passe par l’encouragement d’une forme de chaos, a fortiori dans un contexte politique et social tendu.

Derrière ces actions de déstabilisation qui mettent l’accent sur l’incapacité du pays à sécuriser les Jeux olympiques et paralympiques de Paris 2024 (JOP), l’objectif est aussi d’affaiblir l’picture de la France aux yeux du monde…

Les tentatives de déstabilisation des Jeux ne sont pas nouvelles. Nous avons parlé des actions menées lors des JO de Los Angeles, mais nous pourrions également citer la tentative de perturbation lors de la cérémonie d’ouverture des JO de Pyeongchang en 2018 ou encore le piratage de l’agence mondiale antidopage. Ce piratage a conduit à la diffusion des dossiers médicaux d’athlètes américains bénéficiant d’exemptions à des fins thérapeutiques pour des substances considérées comme dopantes. Ces événements se sont produits dans le contexte de l’accusation par le CIO de l’organisation d’un système de dopage soutenu par l’État en Russie.

Aujourd’hui, pour perturber le bon déroulement des JO, les attaques informationnelles se multiplient. Même si rien ne permet de penser que ces opérations vont effectivement déstabiliser l’organisation des Jeux. L’identité visuelle de certains médias réputés, dont Le Point, a notamment été détournée en vue de diffuser de fake contenus by way of des liens créés de toutes pièces. Ainsi, on découvre que les Parisiens auraient contracté en masse des assurances pour se protéger contre les actions terroristes, que près du quart des billets auraient été retournés par les spectateurs, ou encore, d’après des fuites supposées des providers secrets and techniques, que l’État serait en peine d’assurer la sécurité des JOP.

L’idée est de créer le désordre et de déstructurer ce second de cohésion nationale et internationale. Le contexte politique tendu est particulièrement propice à ces opérations. On joue sur la fragilité émotionnelle du pays, afin de fracturer l’unité nationale, de cristalliser les clivages et les oppositions entre les extrêmes.

Les deepfakes sont l’un des outils de propagation de la désinformation. Des photographs truquées pourraient par exemple être utilisées pour fournir de fausses preuves dans des affaires judiciaires. Comment appréhendez-vous ce risque ?

Les deepfakes interrogent le rapport à notre propre notion. Ce que nous voyons ou ce que nous entendons a potentiellement été créé artificiellement de toutes pièces par un algorithme et l’intelligence artificielle générative a permis la démocratisation de ce style de capacité. Il pourrait donc devenir de plus en plus difficile à l’avenir de s’assurer de l’authenticité d’un contenu en se fiant uniquement à ses sens. Des moyens strategies, notamment cryptographiques, existent, mais la query de l’utilization de ces moyens restera centrale.

À LIRE AUSSI Quand l’intelligence artificielle s’invite au débat politique

Avec quels moyens, juridiques et strategies, peut-on lutter contre la désinformation ?

Après l’assassinat de Samuel Paty et la campagne de désinformation qui s’est ensuivie sur les réseaux sociaux, la France a, en 2021, créé un service à compétence nationale sous l’impulsion du président de la République : Viginum. Ce service a pour however de détecter et de caractériser les ingérences numériques étrangères. Son rôle est d’identifier ces ingérences étrangères qui visent à saper la confiance des citoyens dans ses establishments, de démasquer leurs sources et leurs protagonistes, et de comprendre la mécanique d’amplification et de propagation du narratif de désinformation… De nombreuses campagnes de manipulation de l’info ont ainsi été disséquées et ont donné lieu à des rapports publiés par les équipes de Viginum.

Ces actions de déstabilisation touchent d’autres pays que la France. Au niveau de l’Union européenne (UE), la prise de conscience begin dès 2015, comme l’illustre la prise de parole du Conseil de l’Europe, qui souligne « la nécessité de contrer les campagnes de désinformation russes ». En 2022, des sanctions sont d’ailleurs prises par la Commission européenne pour interdire la diffusion de Sputnik et Russia Today (qui enregistraient alors respectivement 4 et 8 tens of millions de visites mensuelles), deux organes accusés de diffuser le narratif du Kremlin. Cette décision sera d’ailleurs confirmée par le tribunal de l’UE au motif que les contenus diffusés visaient à saper les fondements des sociétés démocratiques.

À LIRE AUSSI Comment Poutine déstabilise l’Europe

Sous la présidence française, l’UE est également parvenue à se doter d’un cadre réglementaire en votant un texte, le Digital Service Act (DSA), qui vise à renforcer les obligations des réseaux sociaux en matière de modération des contenus. Car, les réseaux sociaux sont devenus le terreau et le catalyseur de la propagation de la désinformation.

La viralité des contenus est au cœur de leur modèle économique. De plus, ils nous enferment dans des îlots de pensée réfractaires à toute contradiction…

Les réseaux sociaux sont des acteurs essentiels de la désinformation. Le cœur de leur modèle économique repose souvent sur la viralité des contenus et sur l’engagement émotionnel suscité, deux leviers clés dans la propagation d’un narratif. La difficile modération de ces lieux d’expression publique et la promotion algorithmique de contenus permettent ainsi une diffusion extrêmement rapide à une multitude de communautés d’intérêt.

Par ailleurs, leur capacité de ciblage accélère ce phénomène en permettant aux organisations dont l’objectif est de fragmenter la société et d’identifier les profils les plus à même de relayer les fausses informations. Ils créent ainsi un phénomène de résonance necessary. Ces éléments ne sont pas nouveaux et ont été très bien documentés, par exemple suite au tristement célèbre scandale de Cambridge Analytica ou lors de la campagne qui a conduit au Brexit.

La puissance des réseaux sociaux et leur rôle majeur dans cette bataille de l’opinion inquiètent aujourd’hui de nombreux pays, comme l’illustrent les discussions foisonnantes sur le bannissement dans certains pays de l’utility TikTok, réseau social chinois accusé par la Maison-Blanche et un sure nombre de ses alliés d’être une arme au service de Pékin dans cette nouvelle forme de guerre cognitive.

Le reality checking, cette method qui permet de sourcer et de vérifier l’info grâce notamment à l’IA, vous paraît-elle efficace ?

Oui ! Le reality checking est nécessaire, mais il n’est pas suffisant. La vitesse de création de comptes ou de contenus est devenue telle qu’il est de plus en plus difficile de vérifier l’ensemble des informations en circulation et de juger de la crédibilité d’une supply. Une étude récente publiée il y a quelques semaines démontre d’ailleurs qu’aux États-Unis, les fake websites d’info locale sont devenus plus nombreux que les websites authentiques.

Les stratèges de la manipulation de l’info ont bien compris que le rapport de pressure leur est favorable. Une campagne visant à saturer les reality checkers de fausses informations, parfois même grossières, est venue récemment inonder les communautés de reality checkers afin de paralyser leur motion.

La désinformation interroge notre rapport à la vérité. Est-ce cela le vrai hazard de nos démocraties ?

C’est effectivement ma plus grande crainte. La désinformation attaque les fondements mêmes de la démocratie en manipulant notre notion de la réalité et en rendant unattainable toute forme de conciliation.

Le débat démocratique repose sur l’expression de divergences d’opinions, mais présuppose un référentiel commun de faits ou de ideas partagés. Ce référentiel commun est un préalable au débat et donc à l’expression d’un avis, d’une idée ou d’un vote. Si ce référentiel vole en éclats, s’il n’y a plus de commun autour duquel échanger, plus de réalité commune, plus de lexique commun, la notion même de débat vole en éclats. Et ce ne sont finalement plus des opinions, mais des perceptions qui s’affrontent, loin de toute réalité, à l’picture de ce que l’on observe outre-Atlantique. L’absence d’une base commune nous fait alors pénétrer dans le champ vaporeux de la postréalité, ou des réalités options, qui s’en prend à l’idée même de vérité et réinterroge ainsi la stabilité de notre modèle démocratique. Dans un tel scénario, il devient compliqué de faire société.

À LIRE AUSSI Hugo Micheron : « La désinformation est une guerre mondiale contre la démocratie »

Progressivement, les éléments falsifiés risquent par ailleurs de finir par devenir indiscernables puisque noyés dans des narratifs ponctués d’éléments vérifiables. Et progressivement, les moteurs de recherche et outils d’IA générative, qui sont devenus notre principale supply d’info et qui se nourrissent de l’ensemble des contenus trouvés sur Internet, finissent par relayer et promouvoir ces contenus dont la qualité moyenne s’appauvrit.

D’où la query de savoir, pour endiguer le fléau de la désinformation, s’il faut davantage contrôler l’info ou au contraire favoriser le développement de l’info ?

La query est vertigineuse. Comment se résoudre à contrôler l’info sans générer d’autres risks pour notre démocratie ? L’information est un contre-pouvoir indispensable, chevillé à la liberté de penser. La contrôler reviendrait à créer une police de la pensée et entraver la liberté d’expression, ce qui ne me semble pas souhaitable. D’un autre côté, si j’ai longtemps pensé qu’on ne parviendrait à lutter contre la manipulation de l’info qu’avec plus d’info de qualité, je suis bien obligé de me rendre aujourd’hui à l’évidence. L’IA générative change la donne. Et la capacité de créer du contenu, à la demande, ne me semble plus être propice à l’émergence de cet équilibre.

Si le contrôle de l’info n’est pas souhaitable, il faut peut-être s’attaquer à la vitesse de diffusion et réfléchir sur les mécanismes de viralité. Mais nous marchons clairement sur un fil tendu au-dessus du vide…


https://www.lepoint.fr/societe/desinformation-la-puissance-des-reseaux-sociaux-dans-la-bataille-de-l-opinion-inquiete-de-nombreux-pays-05-07-2024-2564879_23.php