Où en sommes-nous de la promesse originelle de faire des réseaux sociaux la grande agora publique mondiale ?

L’un des premiers grands réseaux sociaux, Facebook, a été créé pour « rendre le monde plus ouvert et plus connecté ». Mais, très rapidement, ces grandes entreprises ont été confrontées à la question de la rentabilité économique. Une exigence qui n’était pas forcément alignée avec l’idéal de mettre en relation les citoyens. En effet, pour garantir leur rentabilité, ces plateformes ont placé deux choses au centre de leur modèle économique : la collecte et la revente de données des utilisateurs d’une part, et la publicité ciblée de l’autre. Pour faire cela de manière efficace, il faut parvenir à capter une audience assez large et la retenir sur votre plateforme, d’où la concentration des grandes plateformes, qui ont tout fait pour que les utilisateurs ne puissent pas passer d’un réseau à l’autre. Elles se sont ensuite mises à contrôler ce que voient les utilisateurs, en modulant l’information qui y circulait. C’est ce qu’a fait Facebook en inventant le fil d’actualité – qui a été répliqué par la suite par tous les autres réseaux sociaux. Leur pari a été de dire : comme vous avez maintenant des centaines d’« amis », vous n’allez pas pouvoir tout lire, tout écouter ; on va donc vous aider à filtrer les contenus pertinents.

Comment ?

Pour déterminer ce qui arrive dans votre fil d’actualité, les plateformes considèrent l’ensemble des messages produits par votre environnement social et attribuent à chacun d’entre eux un score qui dépend de leur contenu et des réactions qu’ils ont suscitées. Seuls les messages avec les plus hauts scores parviennent dans votre fil d’actualité. L’enjeu des grandes plateformes est d’appliquer à leur milliard d’utilisateurs une manière de construire ces scores qui optimisera leurs revenus. Sur Facebook par exemple, jusqu’à 2018, la consigne donnée aux ingénieurs était, semble-t-il, la suivante : trouvez les contenus qui gardent les utilisateurs connectés le plus longtemps possible. Puis Facebook a changé son fusil d’épaule, et a annoncé que seraient désormais privilégiés les contenus qui « ont du sens » aux yeux des utilisateurs. En langage ingénieur, cela s’est réduit à trouver les messages qui créent le plus d’engagement, c’est-à-dire de clics, de visionnages, de commentaires, de partages. C’est là que les choses ont commencé à dérailler. Nous avons tous, de manière plus ou moins prononcée et indépendamment des environnements numériques, tendance à accorder une attention disproportionnée aux informations et aux événements négatifs. C’est ce qu’on appelle le biais de négativité. Transposé au monde numérique, cela signifie que vous avez plus de chances de réagir à des messages qui ont un ton négatif, vous agressent, provoquent de l’anxiété ou vous scandalisent. L’algorithme, qui a pour mission de détecter ce qui suscite le plus d’engagement, va apprendre de vos comportements et vous recommander en priorité ce type de contenus toxiques. Nous avons ainsi démontré que sur X/Twitter la proportion de contenus toxiques dans les fils d’actualité est de 50 % supérieure à celle des productions des personnes auxquelles les utilisateurs s’abonnent ! Votre fil d’actualité vous tend en quelque sorte un miroir déformant de la réalité, qui va la rendre plus hostile et plus noire à vos yeux, et vous amener à réagir en conséquence. On voit bien en quoi ce modèle, sur le moyen terme, peut aggraver, voire provoquer une décohésion sociale.

Est-ce intentionnel de la part des dirigeants des entreprises de la tech ?

A priori, il y a surtout des choix d’ingénieurs guidés par le profit. On peut donc leur prêter le bénéfice de la cupidité. Mais ce qui est certain, c’est que les dirigeants des Gafam sont conscients des conséquences délétères de ces choix. En 2018, lorsque Facebook choisit de privilégier l’engagement, l’entreprise part de deux constats : la conflictualité des échanges sur la plateforme avait augmenté et, dans le même temps, les revenus de Facebook avaient crû. Le changement a donc été validé, en toute conscience.

Huit ans après l’affaire Cambridge Analytica, les réseaux sont-ils soumis à l’influence politique ?

On sait par exemple que, lors des dernières élections européennes, la Russie a diffusé via la régie publicitaire de Facebook des publicités politiques ciblées pour favoriser Marine Le Pen, ce qui est strictement interdit en période électorale. Ces publicités ont obtenu 38 millions de vues, et moins de 20 % d’entre elles ont été modérées par Facebook ! Mais le problème le plus pernicieux selon moi, c’est la façon dont les réseaux sociaux reconfigurent durablement le tissu social numérique. Le biais de négativité évoqué plus haut n’a pas seulement pour conséquence de favoriser les contenus toxiques et la désinformation. Il a aussi pour effet démontré de concentrer le capital social du réseau entre les mains des personnalités les plus toxiques. En effet, plus vos messages sont virulents, plus grande sera votre visibilité du fait du fonctionnement des algorithmes de recommandation. En quelques mois, vous serez un influenceur, capable de toucher des milliers d’utilisateurs. Nous avons pu montrer par la modélisation que dans le top 1 % des comptes les plus influents, l’ordre de grandeur de la surreprésentation des comptes toxiques est de 40 %. À côté de cela, les réseaux sociaux favorisent la création de « chambres d’écho », c’est-à-dire de communautés dans lesquelles les contenus circulent presque en vase clos. Les électeurs de Trump, intoxiqués sur les réseaux par l’idée que l’élection présidentielle de 2020 leur a été « volée », en sont un bon exemple.

Quel impact cela a-t-il sur la polarisation politique ?

C’est particulièrement dangereux, car l’environnement numérique des plateformes – contrôlé par leurs algorithmes – est le lieu où se forme désormais une partie importante de l’opinion publique. Le moindre biais dans ce processus représente un risque systémique pour la démocratie. Traditionnellement, le débat politique en France est multipolaire, avec quatre ou cinq grands partis, et une grande diversité d’opinions. Mais, sur ces plateformes, les thèmes bipolarisés et conflictuels ont le vent en poupe : croire ou non à l’urgence climatique, à l’écologie punitive, aux bienfaits ou aux dangers de l’immigration, de la vaccination, etc. Cela force les utilisateurs à se positionner pour un camp ou pour l’autre. Cet avantage donné au manichéisme est largement exploité par l’extrême droite, qui sait parfaitement manipuler les réseaux sociaux pour imposer ce type de thèmes et attirer à elle des citoyens mécontents du « système » en se présentant comme le défenseur du « camp du peuple ».

Pour eux, les réseaux sociaux permettraient de renouveler le débat démocratique en contrant le discours dominant…

C’est un discours qui effectivement fait partie de la stratégie de l’extrême droite. Steve Bannon, ancien conseiller de Trump, affirme ainsi que l’ennemi, ce ne sont pas les démocrates, mais les médias. Dans leur stratégie de conquête de l’opinion et de renversement des valeurs, le premier défi des partisans de l’extrême droite est bien de détacher les citoyens de leurs sources d’information fiables pour qu’ils se reportent sur des sources d’information orientées. Peut-on contrer ce discours ? C’est d’autant plus difficile que des narratifs sont diffusés en amont pour empêcher toute forme de modération, en alertant contre la censure médiatique. Mais cette stratégie de victimisation est une forme de diversion. Le vrai enjeu est moins de modérer les contenus que de s’assurer qu’ils circulent de façon neutre dans l’espace numérique. Personne n’a sincèrement envie de percevoir la réalité plus noire qu’elle ne l’est vraiment. De même, personne n’a envie que l’orientation politique des messages qu’on lui recommande soit trop éloignée de celle des personnes qu’il suit. C’est pourtant bien ce que l’on mesure sur X/Twitter, avec une distorsion qui dépend de vos opinions politiques ! Il faut donc pouvoir revenir à une perception non biaisée du débat dans ses dimensions critiques, car c’est la seule à même de nous donner la capacité de juger en conscience.

Comment l’intelligence artificielle (IA) va-t-elle bouleverser les réseaux sociaux ?

Les pratiques d’astroturfing sont déjà très présentes sur les réseaux : il s’agit de créer des « populations » artificielles de comptes, pilotés soit par des personnes rémunérées, soit par des robots, pour donner l’illusion du soutien d’une foule à une cause. Cela vient percuter frontalement l’idéal d’une agora mondiale, car vous pouvez avoir en face de vous un robot conçu non pas pour débattre avec vous, mais pour vous mener dans un coin précis du débat. Elon Musk a validé cette évolution en changeant la certification des comptes X/Twitter, passant d’une validation sur présentation d’une carte d’identité à un simple paiement par carte bleue, ce qui permet de certifier des milliers de comptes bidon… Avec le développement de l’IA conversationnelle, c’est encore pire. Vous pouvez avoir des comptes pilotés par des équivalents de ChatGPT, assez peu distinguables des humains, et qui, fait nouveau, vont à la rencontre des utilisateurs. Ils peuvent par exemple faire de la veille média pour commenter de manière orientée certains articles de comptes de médias grand public, voire faire de la désinformation. Ces comptes ne sont pas là pour débattre mais pour convaincre. Ils ont, en théorie, accès à tout Internet et scrutent votre historique de publications dans son ensemble pour trouver votre corde sensible ! Et si vous-même résistez, qu’importe, puisqu’il suffit de passer au compte suivant, jusqu’à parvenir à convaincre une masse critique de gens suffisamment crédules pour être embarqués dans une autre réalité.

Comment lutter ?

Des solutions simples et peu coûteuses existent. Par exemple, il suffirait de permettre aux utilisateurs des plateformes de certifier leur citoyenneté grâce à des services tiers tels que FranceConnect pour que chacun puisse distinguer les comptes de concitoyens de ceux pilotés par des robots ou par des agents œuvrant pour le compte de puissances extérieures. Cela peut se faire sans révéler son identité à qui que ce soit et éliminerait d’un coup les interférences étrangères et celles des IA. D’autres solutions existent pour atténuer ou supprimer les travers que l’on vient d’évoquer. Le problème est que les plateformes n’y ont pas intérêt : si du jour au lendemain, on s’aperçoit que 20 à 30 % de leurs utilisateurs sont en réalité des robots, c’est autant de revenus publicitaires en moins. Et les faux comptes créent de l’engagement ! D’autres médias numériques utilisent ce genre d’artifice. Les sites de rencontre, par exemple, se servent souvent de robots lors de leur lancement pour donner une illusion de popularité. On se heurte, là encore, à la question de la rentabilité économique.

Y a-t-il des réseaux plus vertueux que d’autres ?

Il y a une nouvelle vague de réseaux sociaux, comme Mastodon, issus du monde du logiciel libre et dépourvus de publicité, qui n’exploitent pas vos données personnelles et vous laissent le choix de l’algorithme de recommandation. Surtout, ils s’appuient sur un protocole informatique ouvert qui permet de construire un écosystème de plateformes sociales interopérables. Aujourd’hui, si vous êtes sur Twitter, vous ne pouvez pas parler avec quelqu’un sur Facebook, et encore moins y faire migrer vos données et votre audience. C’est un problème, car cela signifie que si un jour vous êtes mécontents de la politique de modération qui y est faite, vous ne pouvez pas partir sans perdre l’ensemble de vos contenus et de vos abonnés. Votre capital éditorial et social ne vous appartient pas. Au contraire, sur des systèmes décentralisés comme Mastodon, c’est un peu comme avec un opérateur téléphonique, si vous n’êtes pas content de votre hébergeur, vous pouvez en changer en emportant avec vous votre numéro de téléphone et votre carnet d’adresses. Là est à mon sens le futur des réseaux sociaux, car cela signifie non seulement que les citoyens ne sont plus captifs de telle ou telle plateforme, mais aussi que la liberté d’expression est vraiment assurée dans ces espaces, car votre capacité à en user n’est plus à la merci du bon vouloir du propriétaire de tel ou tel réseau. 

Propos recueillis par LOU HÉLIOT & JULIEN BISSON

Vous avez aimé ? Partagez-le !