Pourquoi les robots devront-ils disposer d’un ‘monologue intérieur’?
Si nous voulons avoir des robots à nos côtés dans le futur, il nous faudra d’abord développer une intelligence artificielle adaptée aux créatures qui se déplacent par elles-mêmes dans le monde, selon les chercheurs. Ce raisonnement incarné (‘embodied reasoning’) deviendra même une étape évolutive importante dans le développement de nos frères et sœurs robots.
Le summum de l’intelligence artificielle que les utilisateurs commencent progressivement à connaître aujourd’hui, comme l’IA générative et les modèles linguistiques, se retrouve littéralement ‘coincé’ dans l’équipement informatique. Parallèlement, nous avons tous vu à l’œuvre les premiers exploits d’entreprises de robotique comme Boston Dynamics: il ne faudra peut-être plus attendre des décennies avant que cette IA de plus en plus… humaine se retrouve dans un être électronique de ce type et puisse donc se balader parmi nous. Mais cela nécessitera d’abord de développer une IA légèrement plus spécialisée.
Comment et pourquoi
Bien sûr, il existe déjà une intelligence artificielle dans les robots: leurs ‘foundation models’, comme on appelle cette technologie d’IA spécifique, leur permettent de s’orienter dans un monde physique et de contrôler leur ‘corps’. Mais pour voir un jour des robots dans la rue, capables de se déplacer parmi les humains et, de préférence, d’effectuer des tâches à leur place, il faudra plus que simplement télécharger la dernière version de l’IA ‘stationnaire’, selon les chercheurs.
Voilà pourquoi les universités de Berkeley, Stanford et Varsovie travaillent sur une IA qui confèrera aux robots le raisonnement incarné: ils disposeront non seulement de l’intelligence linguistique d’un ChatGPT et de leur propre IA motrice, mais à en croire le nouveau rapport Robotic Control via Embodied Chain-of-Thought Reasoning, ils pourront également réfléchir à comment et pourquoi ils effectuent des actions. Ils devront, comme le département de recherche en robotique de Google l’avait mentionné il y a deux ans dans un autre rapport, posséder un ‘monologue interne’.
Beaucoup de choses à penser
Heureusement, comme le montre le tout dernier rapport, les germes de ce type d’intelligence artificielle se trouvent déjà dans les grands modèles de langage (LLM) actuels. Le raisonnement de type Chain-of-thought signifie essentiellement qu’il convient de répartir la solution à un problème en étapes intermédiaires concrètes. Ce principe est donc désormais appliqué sur les trois campus universitaires collaborateurs dans les foundation models des robots.
‘Nos objectifs au niveau de la conception sont doubles: encourager le modèle à réfléchir à haut niveau à toutes les étapes requises d’une tâche, puis déterminer laquelle doit être franchie ensuite’, indiquent les chercheurs dans leur rapport. ‘Ce raisonnement doit être de plus en plus basé sur les caractéristiques de la situation et sur l’état du robot, avant de pouvoir prédire la prochaine action de ce dernier.’
Apprendre de ses erreurs
Ces nouvelles étapes du raisonnement incarné rejoignent désormais progressivement les avancées en cours de développement dans les capacités d’auto-apprentissage et la motricité fine des robots. Des robots à la réflexion rapide ont déjà été mis au point, entre autres, au sein de l’Artificial Intelligence Lab de la professeure Ann Nowé de la VUB: des chercheurs de son laboratoire avaient fait tenir un petit pieu en équilibre sur un bras robotique il y a environ huit ans déjà. ‘Les premières fois, il l’a laissé tomber. Mais il a bien vite appris les bons micromouvements pour le maintenir parfaitement en équilibre’, a expliqué Nowé dans une interview accordée à Data News il y a deux ans. ‘Ce type d’IA apprenant par elle-même peut acquérir de nouvelles connaissances de manière inattendue, un peu comme un enfant qui apprend à aller en vélo: en tirant parti de ses erreurs, il assimile un enchaînement de renforcements positifs.’
Prise de conscience de la situation
Entre-temps, les laboratoires de robotique du monde entier continuent également à peaufiner la prise de conscience de la situation de nos futurs amis robots. Au Massachusetts Institute of Technology (MIT), des chercheurs et leurs collègues de la société de robotique Boston Dynamics ont par exemple développé une version de Spot, le désormais célèbre robot à quatre pattes de Boston Dynamics, qui a davantage conscience de son environnement jusqu’à évaluer les situations dangereuses. L’application la plus importante est bien entendu celle de la défense: le projet en question a été codéveloppé par la Homeland Protection and Air Traffic Control Division du gouvernement américain. Mais cela ne signifie pas que la nouvelle technologie ne peut être utilisée que dans des situations de guerre.
‘Les membres de la Garde côtière sont souvent obligés d’entrer dans les cales des navires, qui peuvent contenir des fumées toxiques ou d’autres risques chimiques et biologiques’, déclare Amna Greaves, l’une des chercheuses, dans une publication du MIT. ‘Il existe également la possibilité d’une attitude hostile de la part des équipages. En outre, avoir avec soi un compagnon capable de détecter les menaces chimiques, biologiques, radiologiques et nucléaires en portant des capteurs spécifiques ne peut que réduire le risque pour les intervenants.’
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici