"Bonjour, comment vas-tu aujourd'hui?" Nadine est assise à sa table, les mains immobiles et le regard perdu dans le vide. De manière assez bluffante, elle interpelle le quidam et répond à toutes les questions avec une voix monotone et hachée, mais compréhensible.
Nadine est un robot social, humanoïde. Elle ressemble étrangement à la chercheuse qui l'a créée, Nadia Thalmann, directrice du MIRALab à l'Université de Genève. "Nadine a été testée avec succès dans des maisons de retraite, à Singapour notamment. Elle peut discuter à l'aide d’un modèle de langage artificiel, de type ChatGPT", explique Nadia Thalmann dans le 19h30 de la RTS.
De multiples biais
Dévoilé fin 2022, ce genre de système de production de textes est encore perfectible, puisqu'il génère parfois des contenus dénués de sens, que les scientifiques appellent "hallucinations". Cette "intelligence artificielle" est aussi pervertie par de multiples biais liés au genre, aux tendances politiques ou sociales.
Mais pour Janet Adams, chief operating officer de SingularityNET, qui développe des robots sociaux, l'avenir s'annonce radieux. "Ces développements ne se feront pas de manière graduelle, mais plutôt sous forme de rupture, lorsque nous aurons les technologies qui permettront de gommer les limites actuelles des systèmes ChatGPT, de manière à ce que les robots deviennent vraiment créatifs et apprennent de leur environnement."
"Nous estimons que ce changement de paradigme va survenir dans les 18 à 24 prochains mois. Cela va vraiment débloquer le pouvoir des robots à travers la planète!"
Autonomiser les mouvements
Les roboticiens planchent pourtant déjà sur l'étape suivante: équiper des robots humanoïdes mobiles, souvent bipèdes, de systèmes d’intelligence artificielle similaires à ceux générant le langage, mais ayant pour objectif d'autonomiser ces machines dans leurs mouvements, notamment en fonction des commandes qu'ils reçoivent des humains.
On pourrait alors demander à son robot compagnon d'ouvrir le frigo et de littéralement cuisiner un plat avec les éléments qu'il y trouvera, sans les connaître en amont.
Ces derniers mois, plusieurs sociétés, de Tesla à OpenAI en passant par Boston Dynamics, ont présenté leur dernier robot humanoïde, à chaque fois digne des meilleurs films de science-fiction, mais pourtant bien réel.
Dans une vidéo, on voit ainsi un robot, nommé FigureO1, répondre à la question "Puis-je avoir quelque chose à manger?" posée par un humain, par un mouvement de son bras robotisé saisissant une pomme. Difficile de savoir toutefois à quel point l'ensemble a été pré-programmé.
"J'aime cette idée d’insérer dans les robots des systèmes de type ChatGPT", commente Yuichiro Kawasumi, ingénieur en chef de la société japonaise Kawada Technologies Inc. "Nos robots affichent des performances très élevées, mais ils n'ont pas assez de 'cerveau'. Avant, nous devions programmer les robots, qui étaient souvent utilisés en usine. Mais ce seraient bien qu'ils acquièrent des fonctions plus flexibles, pour interagir avec les gens."
Différencier la machine de l'humain
Une perspective vertigineuse pour Azeem Azhar, un expert du domaine des technologies de demain, fondateur du blog Exponential View: "Nous, humains, apprécions de pouvoir parler à ces machines de manière… humaine. Mais si nous insérons de tels systèmes dans des robots, nous devons être très précautionneux pour nous assurer que tout le monde comprenne qui est un être humain et ce qui est une machine."
Cela fait une vingtaine d’années que l'on a pu montrer que des machines sont en réalité capables de réaliser absolument toutes les tâches de notre quotidien d'humain
Rendre les robots entièrement autonomes est cependant loin d'être trivial, comme l’explique Nadia Thalmann. "Nadine est équipée d'un logiciel. Mais quand on parle d'un robot humanoïde, on parle de la physique du corps. Or un robot est extrêmement simple: il a des câbles, des moteurs et c'est tout. Il reste extrêmement loin du corps humain, de sa physiologie très évoluée. C'est donc très difficile. Il faudra attendre longtemps jusqu'à ce qu'un robot fasse des tâches complexes."
Pour Davide Scaramuzza, directeur du Robotics and Perception Group de l'Université de Zurich, le problème actuel n'est pas dans la mécanique: "Cela fait une vingtaine d’années que l'on a pu montrer que des machines sont en réalité capables de réaliser absolument toutes les tâches de notre quotidien d'humain, et même parfois bien plus rapidement que nous, pour autant qu'on les ait programmées pour cela."
Interpréter des données sensorielles
D'ailleurs, question souplesse et mobilité, le nouveau robot entièrement électrique Atlas de Boston Dynamics, dévoilé en avril dernier, peut en effet faire avec ses bras, ses jambes, son bassin et son buste des mouvements totalement impossibles pour un corps humain.
"En fait, ce qu'il manque encore largement à ce genre de robots, c'est la capacité d'interpréter les données qu'ils acquièrent avec leurs senseurs du monde externe", poursuit Davide Scaramuzza. "Par exemple, avec les images des caméras dont on les équipe, les robots parviennent encore mal à construire pour eux-mêmes une représentation visuelle en 3D de leur environnement ou à déterminer où sont les obstacles."
Autre écueil: les systèmes désincarnés comme ChatGPT peuvent s'entraîner sur une base de données gigantesque, l'entier d'internet, pour générer des bribes de textes de manière probabiliste, avec une rapidité épatante. Mais rien de tel en robotique: il faudrait pour cela que les robots puissent s'exercer sur des échantillons de données de mouvement existants, mais ceux-ci font largement défaut.
Olivier Dessibourg/asch