Des biais peuvent intervenir dans une IA à plusieurs niveaux. D’abord, celui des bases de données. Les IA opèrent à partir de données moissonnées plus ou moins légalement sur Internet – OpenAI utilise ainsi non seulement les données de Wikipedia et d’organes de presse avec qui il a passé des partenariats, mais aussi celles de bon nombre d’autres sites, et même du Darknet [cette part d’Internet dont les contenus, parfois illégaux, sont uniquement accessibles à des initiés]. Leurs réponses dépendent de cette première collecte. Or ce matériau de base, cette pâte, est déjà biaisé, dans la mesure où il reflète les représentations dominantes qui circulent sur Internet, lesquelles ont souvent une dimension sexiste, raciste, violente ou discriminatoire.
Plus difficile à quantifier, il existe également des biais de conception, qui ont trait aux représentations des ingénieurs. On sait par exemple que ces derniers ont tendance à donner une voix féminine aux assistants vocaux, comme dans le cas du GPS ou de Siri, et que certains algorithmes de prédiction associent les personnes racisées à la criminalité. Tout cela est un miroir de leurs préjugés, souvent partagés dans le reste de la société.
Une IA peut prendre une couleur morale et politique en fonction des valeurs de l’entreprise qui les porte
À cela s’ajoute une troisième couche, soit les biais de contrôle et de modération. Des travailleurs du Sud global sont payés pour identifier et supprimer les contenus perçus par ces entreprises comme problématiques. Mais les demandes varient d’une entreprise à l’autre. Une IA peut prendre une couleur morale et politique en fonction des valeurs de l’entreprise qui les porte, de l’histoire de celle-ci et des attentes qu’elle prête au marché. L’agent conversationnel Gemini, développé par Google, est considéré comme « woke » par Elon Musk. En réponse, Grok, associé à son entreprise X (anciennement Twitter), se veut « non woke » et « non politiquement correct ».
D’une certaine manière, la Silicon Valley fonctionne comme Hollywood : des milliers de personnes contribuent à la conception des IA, parfois produites loin de la Californie, mais vendues dans le monde entier. Le produit final est marketé pour correspondre à ce marché. Si l’on parvenait à cartographier tout ce qui est censuré dans les IA des différents pays de production, on pourrait recomposer, en négatif, l’inconscient politique de notre époque.
Conversation avec LOU HÉLIOT