J’ai mis quatre ans à parfaire Tara tout en créant des poupées qui se vendraient. Au plan physique, elle évoquait une fillette de cinq ans. Sa plastipeau normalement réservée aux greffes et son synthégel aussi coûteux lui donnaient l’air éthéré, angélique. Elle avait des yeux noirs, limpides, dans lesquels se perdre.

Je n’ai jamais terminé sa locomotion. Avec le recul, tant mieux. […] Son esprit, en revanche… J’ai utilisé les processeurs quantiques les plus évolués et les meilleures matrices de stockage à état solide pour gérer des réseaux neuraux multicouches à feedback multiple. J’y ai rajouté la base sémantique de Stanford et mes propres modifications. La programmation tenait de l’œuvre d’art. Le modèle de données seul m’a demandé plus de six mois.

Je lui ai appris quand sourire, quand se renfrogner, comment parler, comment écouter. Chaque soir, j’analysais les graphes d’activation de ses nœuds neuraux dans le but d’anticiper les problèmes et leur résolution.

Brad ne l’a jamais vue pendant sa mise au point. […] Je voulais le surprendre.

J’ai mis Tara dans un fauteuil roulant avant d’aller la lui présenter comme la fille d’une amie. Puisque je devais faire des courses, pouvait-il s’occuper d’elle un petit moment ? Je les ai laissés dans mon bureau.

À mon retour deux heures plus tard, je l’ai trouvé qui lui lisait la légende du Golem. « “Allons, dit le rabbin Loew, ouvre les yeux et parle comme une personne réelle !” »

Du Brad tout craché, ai-je songé. Un maître de l’ironie.

Je l’ai coupé dans son élan. « D’accord, très amusant. Je pige la plaisanterie. Il t’a fallu combien de temps, alors ? »

Il a souri à Tara. « On finira l’histoire une autre fois. » Il s’est tourné vers moi. « Combien de temps pour quoi ?

– Pour le découvrir.

– Découvrir quoi ?

– Arrête de te payer ma tête. Sans rire, comment s’est-elle trahie ?

– Trahie sur quoi ? » ont demandé à l’unisson Brad et Tara.

 

Rien de ce qu’elle faisait ne me prenait au dépourvu. Je devinais ce qu’elle allait dire avant même qu’elle n’ouvre la bouche. Après tout, j’avais écrit toute sa programmation et je savais comment ses réseaux neuraux se modifiaient selon la moindre de ses interactions.

Or, personne d’autre ne s’est douté de rien. J’aurais dû sauter de joie. Ma poupée réussissait son test de Turing dans la vraie vie. Mais j’avais peur. Les algorithmes parodiaient l’intelligence, pourtant nul ne semblait s’en rendre compte. Ni même s’en soucier.

« Tu imagines ce qu’on peut faire avec ça ? »

J’ai fini par annoncer la nouvelle à Brad au bout d’une semaine. Après son émoi initial, il s’est montré enthousiaste (comme je m’y attendais).

« Génial. On n’est plus seulement un fabricant de jouets. Tu imagines ce qu’on peut faire avec ça ? Tu vas devenir célèbre, vraiment célèbre ! »

Il bavassait sur les applications potentielles quand il a pris note de mon silence. « Qu’est-ce qui ne va pas ? »

Je lui ai donc parlé de la chambre chinoise.

Le philosophe John Searle avait coutume de soumettre un problème aux chercheurs en IA. Imaginez une pièce, disait-il, une salle pleine d’employés méticuleux qui excellent à suivre des consignes, mais ne parlent qu’anglais. Dans cette pièce arrive un flot régulier de cartes portant d’étranges symboles. En réponse, ils doivent dessiner d’autres étranges symboles sur des cartes vierges et les expédier dehors. Pour ce faire, ils disposent de grands manuels remplis de règles en anglais : « Si vous voyez une carte portant un gribouillis horizontal suivie d’une carte portant deux gribouillis verticaux, dessinez un triangle sur une carte vierge avant de la donner à l’employé sur votre droite. » Les règles restent muettes sur la signification des symboles.

Il s’avère que les cartes qui arrivent dans la pièce sont des questions écrites en chinois et que les employés, en suivant les règles, produisent des réponses intelligibles en chinois. Mais peut-on dire que le moindre élément de ce processus – les règles, les employés, la pièce dans son ensemble, ce tourbillon d’activité – a compris un seul mot de chinois ? Remplacez les employés par « le processeur », les manuels de règles par « le programme », et vous verrez que le test de Turing ne prouve rien, que l’intelligence artificielle est un leurre.

On peut aussi inverser l’argument de la chambre chinoise – remplacez les employés par « les neurones », les manuels de règles par les lois physiques qui gouvernent la cascade des potentiels d’activation, et comment peut-on dire qu’un seul d’entre nous « comprend » quoi que ce soit ? La pensée est un leurre.

« J’ai du mal à te suivre, a dit Brad. Explique-toi. »

Je me suis rendu compte que j’attendais cette réaction de sa part.

« Brad… » Je l’ai regardé droit dans les yeux, tâchant de l’éclairer par la force de ma volonté. « J’ai peur. Et si jamais on ressemblait tous à Tara ?

– On ? Les gens en général ? C’est ça ? »

J’ai cherché les mots justes. « Imagine qu’on suive tous un algorithme jour après jour ? Que nos cellules cérébrales se bornent à chercher des signaux dans d’autres signaux ? Qu’on ne réfléchisse pas du tout ? Que le discours que je te tiens là se limite à une réponse prédéterminée, définie par des paramètres physiques dénués de raison ?

– Elena, tu laisses la philosophie l’emporter sur le réel. » 

Extrait de la nouvelle « Les Algorithmes de l’amour », dans La Ménagerie de papier © Le Bélial’, 2015, pour la traduction française de Pierre-Paul Durastanti