La start-up chinoise PNDbotics vient de publier une vidéo montrant les capacités de locomotion de son robot humanoïde Adam, présenté pour la première fois en 2023. Dans cette séquence, le robot marche sans assistance visuelle sur un sol irrégulier, en ajustant en temps réel sa foulée, son rythme et son équilibre. Cette démonstration marque une étape dans la transposition réussie d’un apprentissage en simulation vers un comportement autonome en conditions réelles.
Un entraînement en simulation, puis transposé au réel
Adam repose sur un algorithme d’apprentissage par renforcement (RL), combiné à des techniques d’imitation et à des bases de données de mouvements humains. Ces méthodes ont permis au robot de développer un comportement moteur sans passer par une planification rigide ni des modèles mécaniques prédéfinis. Le système apprend par interaction, dans des environnements simulés, avant d’être testé sur le terrain.
L’entraînement d’Adam a été effectué à l’aide de Nvidia Isaac Gym, une plateforme de simulation qui permet de générer des milliers de scénarios parallèles. Cette phase a permis d’ajuster les modèles de coordination entre les articulations, avant une phase de calibration pour adapter les mouvements appris à la structure mécanique du robot. Celui-ci mesure 1,60 mètre pour 60 kg et dispose de 25 actionneurs QDD (quasi-direct drive) répartis sur les jambes, les bras (à cinq degrés de liberté) et la taille (à trois).
Le système est conçu autour d’un torse biomimétique et d’une unité de contrôle embarquée basée sur un processeur Intel i7, couplée à un réseau interne temps réel. Les jambes, renforcées pour résister à des conditions variables, peuvent produire jusqu’à 360 Nm de couple, ce qui permet à Adam de gérer des surfaces non planes ou changeantes.
Un prototype sans perception visuelle
La version testée dans la vidéo ne dispose ni de caméras ni de capteurs de vision. L’objectif est de tester exclusivement la robustesse du système moteur en aveugle. D’après PNDbotics, ce fonctionnement favorise une locomotion fluide, réduit les contraintes mécaniques sur les articulations et améliore l’efficacité énergétique.
Le prototype est modulaire : il pourra à l’avenir intégrer des mains articulées ou des systèmes de vision artificielle, mais ces éléments ne sont pas encore en service. En diffusant cette séquence, PNDbotics cherche à illustrer les possibilités offertes par l’apprentissage moteur sans supervision directe et à élargir l’usage de ses outils à la recherche en robotique humanoïde.
Pour en savoir plus :