Le déploiement dans différents domaines, notamment celui de la santé et du bien-être, des robots sociaux affectifs est un enjeu majeur des prochaines années. Ceux-ci présentent un potentiel thérapeutique en santé mentale, par exemple pour les maladies liées aux troubles du spectre autistique, mais aussi pour surveiller des comportements de dépression ou de malnutrition. Ils peuvent aussi constituer une piste face au vieillissement des populations et aux maladies qui en découlent, telles que la maladie d’Alzheimer. Pour ces tâches, le robot social est vu comme un compagnon ou encore un assistant, capable de percevoir, raisonner et agir sur le monde extérieur, notamment en simulant des émotions.

L’idée de doter les robots de comportements empathiques prend sa source dans des travaux de recherche développés au MIT en 1997. L’informatique émotionnelle (ou affective computing) regroupe trois technologies distinctes : la reconnaissance des émotions des humains ; le raisonnement et la prise de décision à partir de ces informations ; enfin, la génération d’expressions émotionnelles. Le problème qui se pose aux scientifiques n’est pas seulement de construire des robots qui simulent des émotions ou reconnaissent les nôtres, mais de créer des robots pouvant s’inscrire dans un processus dynamique d’interaction avec l’humain. Les systèmes actuels en étant le plus souvent incapables, la recherche se poursuit.

Nous créons spontanément des liens affectifs avec les objets qui nous entourent et nous avons de l’empathie pour les robots. Selon la théorie exposée par Reeves et Nass en 1996, appelée Media Equation, nous avons les mêmes attentes lorsque nous communiquons avec des entités artificielles et nous assignons inconsciemment à ces dernières des règles d’interaction sociale : les chercheurs ont ainsi constaté qu’un objet qui semble souffrir peut inspirer de l’empathie – c’est le cas, par exemple, des robots maltraités. Cette empathie est certes de moindre intensité qu’avec des humains maltraités, mais elle existe, ce qui n’est pas le cas avec des objets inanimés. Nous respecterons donc les robots s’ils nous rendent des services ; nous les aimerons s’ils s’adaptent à nous, à nos habitudes ; nous serons contrariés ou nous nous énerverons contre eux s’ils dysfonctionnent ; nous les trouverons sympathiques s’ils sont touchants ou bienveillants. Ces liens existent déjà avec des objets qui nous entourent : l’ordinateur, la voiture… Certains donnent déjà des noms à leur robot aspirateur et, s’il tombe en panne, veulent qu’il soit réparé et non échangé contre un neuf, au motif qu’il connaîtrait leur maison – preuve que l’humain projette une identité sur la machine. Mais ces liens seront amplifiés s’il y a symétrie et que le robot peut simuler des émotions en réponse aux nôtres. Même si c’est une fausse symétrie, le robot ne ressentant pas réellement d’émotions, nous jouerons probablement avec lui comme avec un miroir de nous-même.

Il y a plusieurs risques à cela qu’il ne faut pas sous-estimer : oublier que la machine est programmée par un humain ; oublier qu’elle n’a ni émotions ni conscience ; et oublier que les humains ne sont pas des machines. Nous devons étudier ces risques et essayer de les prévenir. Car ces objets empathiques peuvent nous rendre dépendants et nous isoler des humains, si nous nous enfermons dans une intimité avec eux. Il serait judicieux que ces aspects affectifs ne soient pas développés pour n’importe quelle application. Les populations touchées par ces robots seront d’abord les personnes vulnérables : les enfants autistes, les personnes âgées, mais aussi les enfants ou les adultes à l’hôpital. La question de l’utilité et de la pertinence des modèles de comportements robotiques doit donc toujours se poser, à plus forte raison si ces machines doivent être placées auprès de personnes fragiles. Les petits enfants, notamment, doivent être protégés de robots nounous, car le référentiel émotionnel se crée dans la petite enfance.

La société n’a aujourd’hui ni normes ou standards universels ni directives pour définir les valeurs à mettre en œuvre dans des robots sociaux. Même capables de simuler des émotions, les robots ne sont pas sensibles comme les animaux : ils restent des objets. Avec la technologie actuelle, ils ne pourront pas développer d’émotion au sens humain, car ils ne ressentent rien dans leur corps : le robot n’a pas de chair et ne souffre pas. Il n’a pas de conatus, de souffle de vie comme le décrivent le philosophe Spinoza dans l’Éthique et le neuroscientifique Antonio Damasio dans Spinoza avait raison. Le droit qui régit les objets suffit donc. Mais comme ces systèmes auront une autonomie croissante pour prendre des décisions et manipuler leur environnement, il est essentiel qu’ils soient conçus pour communiquer sur leurs actions d’une façon transparente et digne de confiance pour la communauté qui va les utiliser.

Le but principal des chercheurs n’est d’ailleurs pas de construire des machines singeant l’homme au point qu’on pourrait les confondre avec lui, mais des machines ayant des fonctionnalités utiles pour l’homme. Nous serons malgré tout appelés à co-évoluer avec elles : les machines s’adapteront à nous et nous nous adapterons à elles, surtout si elles embarquent des technologies d’informatique émotionnelle. Il est donc nécessaire de se confronter aux questions éthiques fondamentales et de s’intéresser à leur impact psychologique et mental sur les personnes, avant de concevoir et déployer de tels robots. L’éthique des robots sociaux affectifs se préoccupe tout autant de l’éthique des machines, c’est-à-dire du comportement moral et éthique des systèmes artificiels, que de l’éthique des humains pour guider la conception, la construction et l’utilisation des systèmes artificiellement intelligents. La transparence et l’intelligibilité des décisions de ces systèmes robotiques sont ainsi nécessaires si l’on veut s’assurer qu’ils respectent le bien-être des citoyens. 

Vous avez aimé ? Partagez-le !