Ces dernières semaines, des images singulières de bombardements de Gaza ou d’Israël ont émergé sur les réseaux. Récemment, de fausses images, des fake, générées par une intelligence artificielle et vendues en ligne, qui donnent un avant-goût du phénomène contre lequel nous devons nous battre. Dans la guerre au Proche-Orient comme en Ukraine, la désinformation, qui a pour trait de s’arranger avec la vérité, est employée pour manipuler les opinions sur ces conflits. À l’instar de la guerre cognitive ou psychologique, elle n’a pas attendu les algorithmes pour exister ; ses contours n’ont cessé de se transformer au fil des évolutions matérielles et technologiques. Cela étant dit, les algorithmes la font entrer dans un tout autre paradigme, en particulier dans le cadre des luttes armées.

Contrairement à la mésinformation, qui traduit la propagation involontaire de fausses informations, la désinformation incarne le partage délibéré de ces mêmes données dans l’objectif de nuire. À l’heure où les réseaux sociaux représentent une source d’information sur l’actualité pour près de 40 % des Français – 70 % des moins de trente ans s’en servant quotidiennement à cet effet selon Ipsos –, le rôle joué en matière de désinformation par les algorithmes de recommandation des contenus consommés sur ces plateformes n’est plus à démontrer. L’affaire Cambridge Analytica a permis d’influencer des millions d’Américains pour que leur vote penche en faveur du candidat républicain Donald Trump, à partir du profilage psychologique illégal des utilisateurs de Facebook. Plus récemment, dans la guerre en Ukraine, la Russie a mené une campagne de désinformation sur les réseaux sociaux en publiant sous les comptes déguisés de médias célèbres des articles accusant l’Occident et l’Ukraine. L’idée étant toujours de construire un narratif – souvent complotiste ou propagandiste – pour qu’il soit massivement adopté.

Selon une étude de 2018 du MIT, les fausses nouvelles avaient 70 % plus de chances d’être partagées sur Twitter (devenu depuis X) que les vraies. 

L’écho que rencontrent ces discours sur Internet est massivement amplifié par les recommandations algorithmiques. De nombreuses études ont montré que les algorithmes embarqués dans ces outils privilégient la propagation de fausses nouvelles, de contenus transgressifs, controversés ou qui s’alignent avec les opinions et les croyances de l’utilisateur, enfermé dans une bulle d’observation du monde. Selon une étude de 2018 du MIT, les fausses nouvelles avaient 70 % plus de chances d’être partagées sur Twitter (devenu depuis X) que les vraies. Tout cela est à l’évidence lié au modèle de génération de revenus basé sur un engagement des utilisateurs propre à l’économie de l’attention des TikTok, Facebook et autres. Dans le cadre de la désinformation, les manipulateurs politiques ou guerriers s’en donnent donc à cœur joie en employant ces suggestions algorithmisées comme une arme de destruction massive du libre arbitre des individus.

La propagation de ces faux contenus s’accélère et atteint un niveau d’abstraction et une viralité qui les rendent plus difficiles à détecter et à déconstruire. Si bien que le démantèlement de ces campagnes par la détection (semi-automatique) de signaux faibles et forts embarqués dans les méthodes employées et les actions répétées sur ces réseaux est nécessaire, mais pas suffisant. Il doit s’accompagner d’une vérification permanente et d’excellence de la part des médias traditionnels, ainsi que d’une éducation de tous les individus – et à tout âge – à interroger et à remettre en question une information reçue en s’interrogeant notamment sur ses sources. C’est d’autant plus important qu’à la désinformation algorithmisée portée par la suggestion de contenus s’ajoute aujourd’hui la génération de fausses images et vidéos qui exigent le développement de systèmes de détection et de traçage. Au risque, dans le cas contraire, de voir la métaphore de la guerre, souvent utilisée pour parler des algorithmes, s’incarner sous nos yeux et sous nos doigts. 

Vous avez aimé ? Partagez-le !