L’irruption ces dernières semaines du logiciel ChatGPT a déclenché un phénomène d’intérêt inédit pour les techniques d’intelligence artificielle. Pourquoi une telle curiosité ?

Ce n’est pas la première fois que l’IA suscite un grand intérêt – il faut se souvenir du choc qu’avait été, en 2017, la victoire du programme AlphaGo contre le champion du monde de go, ce qui paraissait alors une prouesse considérable. Mais ce dont on n’a pas forcément conscience, c’est à quel point la science de l’intelligence artificielle transforme le monde depuis une soixantaine d’années au moins. Le Web par exemple, avec son modèle d’hypertexte – le fameux « http » des adresses des sites internet – est un exemple de mémoire programmée avec des techniques d’intelligence artificielle. L’irruption de ChatGPT, avec celle d’autres programmes ces derniers mois, marque toutefois une rupture, à la fois parce que ce sont des outils désormais facilement utilisables par le grand public et en raison de la qualité assez stupéfiante des résultats.

Pourtant, on a beaucoup insisté ces dernières semaines sur les limites du programme et ses erreurs…

Bien sûr, les textes produits par ChatGPT ne sont pas sans défauts, et il faut le rappeler. Il n’empêche que les progrès accomplis ces dernières années n’en restent pas moins bluffants, y compris pour les experts du secteur. Je pense par exemple aux avancées formidables faites en matière de traduction automatique : pour traduire un texte de n’importe quelle langue, on jugeait jusqu’ici qu’il ne suffisait pas de générer des règles syntaxiques de grammaire, mais qu’il fallait une interprétation sémantique du texte, une compréhension du contexte, ce que font des traducteurs humains. Or les nouveaux outils parviennent à sauter cette étape en s’appuyant sur la masse gigantesque de textes emmagasinés ! Ça ne signifie pas que tout est toujours parfait, car justement la machine ne « comprend » pas le texte. Dans le cas de la génération de textes, par exemple, ce que fait ChatGPT, cela peut conduire à des réponses absurdes, confuses, voire totalement fausses, simplement parce qu’il ne parvient à saisir ni le sens de ce qu’on lui a demandé ni celui de ce qu’il restitue.

L’intelligence artificielle n’est donc pas vraiment « intelligente » ?

C’est un terme ambigu, voire trompeur. Déjà parce qu’on ne devrait pas parler d’intelligence artificielle, mais de « technologies d’IA », inspirées par des travaux scientifiques sur l’IA. Ensuite, parce que le terme même d’intelligence peut désigner deux réalités. La première, c’est l’esprit, tel qu’il a été conçu par la tradition philosophique. C’est ce bon sens, qui nous fait réaliser les évidences. Puis à partir du xixe siècle, l’intelligence en est venue à désigner nos différentes facultés de connaissance. Or avec l’intelligence artificielle, c’est bien de cette deuxième catégorie dont on parle et que les programmateurs essaient de modéliser pour affiner leurs programmes. Dans le débat public, c’est le premier sens qui effraie ou excite, cette capacité supposée des machines à prendre conscience d’elles-mêmes et à développer un esprit. Le but premier des informaticiens, ce n’est pas de créer des machines intelligentes, c’est de comprendre l’intelligence, et en particulier les facultés cognitives sur lesquelles elle repose – la perception, le raisonnement, l’imagination… – pour parvenir à mieux les modéliser et les reproduire. Tout cela reste en grande partie mystérieux. ChatGPT est un générateur de textes performant, mais il ne nous dit pas pour autant d’où vient notre propre maîtrise du langage.

De quoi ces IA seront-elles capables dans les années à venir ?

Il est très difficile de s’avancer là-dessus, car les études rétrospectives montrent que le futur a toujours démenti les anticipations, soit positivement, soit négativement. Quand j’ai commencé à travailler sur les systèmes experts, dans les années 1980, nous avions des projections qui devaient nous mener, mécaniquement, à des intelligences de plus en plus complexes. Le chemin n’a pas été aussi rectiligne que ce qu’on pensait. On a développé de nouveaux algorithmes, qui ont permis de mettre en place des réseaux de neurones convergents, ce qu’on pensait impossible. Ceux-ci se sont d’abord révélés trop lents, donc ils ont été abandonnés, sauf par Yann Le Cun, qui a persévéré dans son coin – à raison – pendant une quinzaine d’années, jusqu’à mettre en place des systèmes qui sont ceux sur lesquels reposent aujourd’hui les apprentissages automatiques des machines.

« Quand j’étais plus jeune, on imaginait qu’en l’an 2000, nous aurions des robots humanoïdes et des voitures volantes »

Tout cela pour dire qu’il est très difficile, en matière de technologie, de savoir ce qui arrivera. Cela dépend des découvertes scientifiques, mais aussi de facteurs économiques, sociaux ou culturels parfois peu prévisibles. Qui aurait pu penser qu’un réseau social où on s’exprime avec une limite de 140 caractères allait devenir la principale agora de la planète ? Le développement de l’apprentissage machine, par exemple, s’est révélé crucial parce que c’est grâce à lui qu’on a pu mettre en place de la publicité ciblée, et donc soutenir l’économie des géants du Web. Qu’est-ce qui sera essentiel dans dix ou vingt ans ? Personne n’est vraiment en mesure de le dire, car le futur nous surprend toujours. Quand j’étais plus jeune, on imaginait qu’en l’an 2000, nous aurions des robots humanoïdes et des voitures volantes. Rien de tout cela n’est arrivé. Or l’an 2000 correspond justement au grand tournant du Web – le monde était en train de se transformer complètement, sans qu’on s’en rende compte.

La science-fiction a souvent dépeint des intelligences artificielles conscientes d’elles-mêmes. Est-ce une possibilité technologique ?

Pour répondre à cette question, laissez-moi remonter un peu plus loin dans le temps. 2023 marque le 400e anniversaire de la naissance de Blaise Pascal, l’ancêtre de tous les informaticiens, car il fut le premier à inventer une machine à calculer. Or de sa machine, Pascal avait conclu qu’elle était capable de faire plus de choses qu’un animal, « mais, ajoutait-il, elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ». Cette leçon de Pascal est importante, car elle est toujours applicable aux ordinateurs : ils n’ont pas de volonté propre. L’an passé, un ingénieur de Google du nom de Blake Lemoine, également prêtre d’une congrégation mystique chrétienne, avait créé la controverse en jugeant l’intelligence artificielle que son équipe développait si avancée qu’elle devait forcément être dotée d’une âme. Mais ce n’est que le résultat de notre propre projection sur la machine. Et ce n’est pas le développement de microprocesseurs plus complexes qui changera cela. L’intelligence n’est pas quantifiable, elle ne peut pas se résumer à une fréquence de calcul.

« La science de l’intelligence artificielle transforme le monde depuis une soixantaine d’années au moins »

Face à l’expansion de l’IA dans nos vies, est-il nécessaire de mettre en place des règles d’éthique ?

Il y a évidemment des questions cruciales qui méritent d’être posées. Il est important, par exemple, de lutter contre la tromperie, de protéger les abus des individus qui pourraient être commis grâce à ces machines. Il est toutefois difficile d’anticiper quels seront les risques futurs, et donc d’édicter à l’avance des règlements appropriés qui ne viennent pas entraver le développement scientifique. Prenez le cas de la santé : bien sûr, il est essentiel d’avoir votre consentement pour l’utilisation de vos données médicales qui serviraient à entraîner des intelligences artificielles. Mais faut-il votre consentement pour qu’un médecin se serve de cette IA pour l’aider dans son diagnostic médical, alors que rien aujourd’hui ne le gêne pour consulter son Vidal ? L’IA génère des fantasmes, des inquiétudes, devant lesquels il faut savoir raison garder.

Quid des relations avec les autres humains ? Peuvent-elles être affectées par l’expansion de l’IA dans nos vies ?

Je crois qu’il faut en effet être attentif à cet aspect. On voit bien déjà à quel point les relations « numériques », médiatisées par les machines, ont déjà affecté nos relations amicales, par exemple. Nous ne nous comportons plus avec nos amis comme nous pouvions le faire il y a dix ou quinze ans, nous ne prenons plus les mêmes nouvelles. Dans un autre registre, je suis étonné par la passion qui se développe aux États-Unis pour les combats de robots. Faut-il les autoriser, alors qu’on interdit les combats d’animaux ? Il y a là une question liée non pas à la souffrance – un robot ne souffre pas –, mais à notre propre expérience face à ce déchaînement de violence. Quelles peuvent être les conséquences pour les humains d’avoir à leur disposition des robots ou des programmes qui donnent l’illusion de la vie ou de l’intelligence, et qu’on peut soumettre à notre bon vouloir ?

OpenAI, l’entreprise derrière ChatGPT, a été cofondée par Elon Musk, mais aussi Peter Thiel et Amazon. Faut-il craindre que les technologies d’IA soient captées par quelques géants privés ?

Ces outils reposent sur des concepts d’intelligence artificielle bien maîtrisés, mais pour les mettre en œuvre, il faut énormément d’ingénierie ou de puissance, ce que seuls quelques grands groupes peuvent aujourd’hui déployer – même si la France développe l’ordinateur Jean-Zay, qui devrait permettre de réaliser des modèles de langage en français. La réalité reste que le pouvoir de ces grands groupes rivalise avec celui des États et affaiblit la démocratie en mettant en place une forme de féodalisme, avec des seigneurs qui se partagent des régions numériques – moteurs de recherche, cloud, réseaux sociaux… Ils disposent aujourd’hui de quasi-monopole, car les États-Unis ne veulent pas se laisser concurrencer par la Chine et rechignent donc à les démanteler. Et c’est là sans doute que réside actuellement le vrai danger. Ce n’est pas que des robots prennent le pouvoir, mais le pouvoir d’ores et déjà pris par des groupes privés géants, aux mains de personnalités imprégnées de l’idéologie libertarienne, comme Elon Musk, qui veulent s’affranchir des États au nom de la liberté des individus et promouvoir la philosophie du long-termisme.

Que dit cette philosophie ?

Que notre priorité morale doit être de sauver les vies futures, les milliers de milliards d’êtres humains encore à naître, et donc de privilégier tout ce qui pourra garantir leur existence, sur Terre ou dans les étoiles. Et qu’il faut donc protéger, développer à tout prix la technologie, clé supposée de l’avenir, quitte à reléguer au second plan les questions sociales, climatiques ou démocratiques présentes. Le court terme n’est pas problématique pour eux, tant qu’on assure l’avenir des technologues. C’est une forme de totalitarisme qui se met en marche. Et il est d’ailleurs assez singulier de voir à quel point on se méfie toujours de l’État, qui est pourtant l’expression de la volonté générale, et moins de ces grands groupes et de leurs nouvelles formes de domination qui nous condamnent à des servitudes virtuelles. 

 

Propos recueillis par JULIEN BISSON

 

Vous avez aimé ? Partagez-le !