En quoi les GAFA menacent-ils nos démocraties ?

Principalement à travers les réseaux sociaux qui modifient de façon majeure et globale l’écosystème informationnel, la façon dont les gens s’informent, donc la façon dont se fabrique une partie de l’opinion publique planétaire.

Comment agissent-ils concrètement ?

Deux phénomènes sont induits par cet écosystème particulier. D’abord, une mondialisation des discours de haine, d’exclusion et de désinformation. Cette mondialisation du marché est d’une grande puissance innovante car on voit remonter par une sélection naturelle, darwinienne même, des argumentaires et des infox qui peuvent faire leurs preuves aux États-Unis et gagner l’Europe. Ou à l’inverse, une vidéo montrant supposément un migrant en Allemagne être utilisée par l’alt-right américaine pour asseoir son discours d’exclusion antimigrants. Si les extrêmes marginaux dans chaque pays rentrent en synergie, ils finissent par ne plus être si marginaux que ça. Et son interaction accentue sa toxicité.

Cette globalisation des discours ultranationalistes, voire identitaires, est-elle le seul phénomène que vous observez ?

Non, on assiste aussi à une sorte de balkanisation des audiences. Cela semble contradictoire, mais les deux vont de pair. Les audiences se segmentent en communautés marginales, partisanes et militantes qui s’enferment et s’autoradicalisent. Avec un effet de meute, un effet tribal de soutien mutuel, une synergie qui renforce leurs partisans dans leur opinion, une accentuation de l’opposition « nous contre eux ». Ces communautés ne sont pas seulement idéologiques : de l’information circule aussi en leur sein, quoique filtrée par cette membrane idéologique. Ceux qui sont à l’intérieur se trouvent exposés à certains types de contenus uniquement ; ils sont dans des bulles, soumis à des filtres qui renforcent une vision parcellaire du monde. J’ajoute un troisième aspect : on entre dans un monde où l’information que l’on consomme est systématiquement travaillée par les algorithmes. Ce n’était pas le cas il y a vingt ou trente ans. Ce qui arrive dans notre rétine est passé par un filtre algorithmique qui perturbe le jeu traditionnel de l’information, sa circulation organique naturelle.

Avec quelles conséquences ?

Cette accentuation spectaculaire crée des effets de loupe ou de surreprésentation de certains types de contenus. Ainsi, sur YouTube, qui est la principale plateforme d’accès à l’info des jeunes générations – c’est notre Google à nous… –, sur les milliards d’heures vues chaque jour, 70 % des vidéos consommées ne le sont pas du fait d’une démarche proactive – quand l’individu va chercher un contenu – mais du fait d’une recommandation algorithmique.

Ces phénomènes nous font-ils perdre de vue la bonne hiérarchie de l’information ?

Le marché de l’information telle que nous la « consommons » a un effet mécanique induit par la nature même des réseaux sociaux : l’information est poussée par des communautés militantes. Plus vous avez une communauté de ce genre derrière un type d’information, plus elle a de chance d’être relayée au point de devenir « survisible ». Or où sont les communautés militantes de l’information médiane, équilibrée, nuancée ? Un exemple me fascine. Sur Facebook, certaines communautés poussent des contenus contre le port du masque. Mais où sont les partisans du port du masque ou des vaccins ? Leur nombre est dérisoire. L’essentiel de l’info à laquelle nous sommes exposés est ainsi phagocyté par des militants souvent extrémistes. Il existe un déséquilibre fondamental entre l’info standard, équilibrée, qui ne peut pas vraiment compter sur cette mise en avant, et tous les contenus fortement idéologisés qui ont leurs soldats prêts à les imposer sur un marché dérégulé qu’ils viennent perturber. La qualité de l’information en est affectée. Et bien sûr la fabrique de l’opinion des citoyens.

Cet univers virtuel est-il détaché du monde réel ?

Non. Tout est profondément lié car le virtuel est animé par des individus. Le militantisme de clavier, les excès et la libération de la parole qu’on voit en ligne ont directement des conséquences dans le monde réel, car ce sont des cerveaux que l’on bouscule, des esprits qui s’habituent aux violences verbales : voyez la manifestation dans l’enceinte du Capitole aux États-Unis le 6 janvier. Les conséquences politiques sont avérées, car on est dans l’univers des idées. Le virtuel et les réseaux ont une influence flagrante sur la politique.

Nos démocraties sont-elles trop faibles face à ces nouveaux acteurs de l’information ?

Notre démocratie est ouverte. C’était déjà vrai avant le Web, mais les réseaux sociaux ont accentué cette caractéristique : notre espace démocratique est aussi ouvert à l’activisme et à l’influence des États étrangers, y compris illibéraux, voire dictatoriaux. Il y a vingt ans, qui en France connaissait la lecture de l’actualité internationale ou de notre actualité intérieure par la Chine, la Russie, la Turquie ou l’Iran ? Pour avoir le point de vue russe sur notre vie politique, il fallait être un spécialiste des signaux faibles ou un lecteur de revues spécialisées. Aujourd’hui, nos démocraties sont d’autant plus fragilisées que des États étrangers peuvent librement pénétrer notre champ public et y exercer une influence sans précédent. Ce qui est injuste et frustrant, c’est que le jeu n’est pas réciproque…

Quelles sont les parades possibles ?

Nos pulsions face aux Gafa sont contradictoires. On les presse de s’impliquer dans la suppression de contenus toxiques, et dans le même temps on s’effraie légitimement de les voir agir sans légitimité démocratique. Je suis pour ma part dans une parfaite ambivalence devant la décision de Twitter de suspendre le compte de Donald Trump. Je suis ravi de cette suspension, même si je trouve que la décision a été trop tardive vu la toxicité de ses messages – c’est principalement sur cette plateforme que Trump s’appuyait pour exciter sa base. Mais, dans un même mouvement, je m’inquiète qu’une entreprise privée puisse couper le son à un président élu avec la légitimité du système démocratique des États-Unis, aussi critiquable soit-il. Il n’y a pas de solution idéale, mais il faut engager une dynamique de dialogue continu avec ces plateformes pour qu’elles tiennent comptent de nos spécificités démocratiques et que nous gardions en tête la réalité de l’économie planétaire de l’information.

Les plateformes sont-elles toutes dangereuses de la même façon ?

Je ferais une distinction entre les réseaux sociaux en général, accessibles de tous, quasi publics, et ce qu’on appelle le dark social, l’univers des réseaux sociaux privés. Je pense à tous les services de messagerie du type WhatsApp ou Messenger. Ces deux univers n’ont pas les mêmes logiques de diffusion. Les algorithmes sont beaucoup moins prégnants dans le dark social, où l’on s’adresse à ses proches. Ils sont en revanche rois dans les réseaux dits publics, comme YouTube. Mais le dark social permet des dérives tout aussi inquiétantes. Il s’appuie sur un autre travers humain : la diffusion affinitaire, comme un bouche-à-oreille démultiplié – par exemple, votre oncle ou votre cousin relayant auprès de vous un message annonçant que l’armée interviendra à Paris pendant le couvre-feu. Ce type de diffusion affinitaire à une force extraordinaire d’entraînement et d’engagement, car ce sont des proches qui vous parlent, et non des inconnus sur Twitter. Il a pu avoir un impact terrible en Inde, des chasses à l’homme ayant été déclenchées par le biais de ce dark social. Et souvenons-nous du rôle qu’il a joué en France avec, en mars 2019, l’épisode de la camionnette blanche conduite par un Rom qui aurait soi-disant enlevé des enfants à Aulnay-sous-Bois. Ces fausses informations ont été diffusées en grande partie grâce à ces réseaux privés.

Les algorithmes sont-ils antidémocratiques par leur opacité ?

Disons que ces algorithmes sont aveugles à l’éthique, à la morale, au vrai et au faux. Ils ont tendance à pousser – au sens de donner un coup de pouce – ce qui bénéficie déjà d’une traction. Cette traction initiale peut être travaillée par des communautés militantes : cela s’appelle l’astroturfing. Des gens se coordonnent dans le monde pour pousser simultanément un contenu et envoyer un signal aux algorithmes. Ce jeu artificiel peut être pratiqué par de toutes petites communautés, mais avoir des effets d’échelle spectaculaires. Une certaine marginalité peut ainsi obtenir un écho global majeur.

C’est-à-dire ?

Je pense à deux exemples. D’abord, l’affaire GameStop, du nom du groupe américain de distribution de jeux vidéo qui est à son cœur : l’histoire d’un petit groupe d’actionnaires activistes qui a mis à genoux des hedge funds simplement en se coordonnant sur un forum du site en ligne Reddit. Cette coalition marginale d’individus a pu faire plier une structure mondiale pesant plusieurs milliards de dollars en faisant monter artificiellement le cours en bourse d’une valeur sur laquelle ces fonds avaient parié à la baisse. Cet effet d’échelle n’est pas forcément lié aux algorithmes. C’est une minorité militante qui, si elle se coordonne à un moment donné, peut avoir un impact démesuré grâce à ces outils technologiques. Autre exemple : le film Hold-up, dont les producteurs ont pu lever 300 000 euros grâce aux plateformes de financement participatif. Il a suffi de moins de 20 000 personnes pour déclencher ce phénomène. Ce film aurait dû n’avoir que des dizaines de milliers de vues, pas des millions ! Le financement participatif a permis un changement d’échelle. Des productions toxiques marginales peuvent ainsi soudainement arriver dans l’arène publique.

Le danger que ces plateformes portent n’est-il pas plus grand à l’approche de l’élection présidentielle de 2022 ?

Je réponds oui, au vu de la bascule à laquelle on a assisté avec le Brexit, puis avec l’élection de Trump et la séquence ubuesque de sa présidence. On a des précédents. Mais cet écosystème ne crée pas forcément le mal. Il en accentue les travers. Si on a eu Trump, s’il y a tant de fausses informations absorbées par des millions de Français sur le coronavirus, si les antivaccins bénéficient d’une audience pharamineuse, c’est qu’il y a malheureusement une demande. Les offres toxiques existent depuis toujours, mais elles n’ont pas toujours rencontré la demande. Les plateformes sociales facilitent cette rencontre. Je crains que la demande existe en France. Des gens sont mûrs pour un discours illibéral. Mon inquiétude est que cet ensemble rencontre son offre, et que l’écosystème de l’information accentue cela. 

 

Propos recueillis par ÉRIC FOTTORINO

Vous avez aimé ? Partagez-le !