0
Suivez-nous
Bulletin
Regarder dessus
Pouvez-vous être certain que la personne qui vous parle n’est absolument pas un robot à 100 % ? Bientôt, vous n’en serez peut-être plus si sûr.
Pour la première fois, des scientifiques ont construit un robot capable de bouger sa bouche exactement comme un humain. Cela signifie qu’il évite ce qu’on appelle « vallée étrange« , où les actions d’un robot semblent troublantes parce qu’elles sont inconfortablement proches du naturel – mais n’atteignent pas tout à fait ce seuil.
Les chercheurs de l’Université de Columbia ont réussi l’exploit en permettant à leur robot, EMO, de s’étudier dans un miroir. Il a appris comment son visage flexible et ses lèvres en silicone bougeraient en réponse aux actions précises de ses 26 moteurs faciaux, chacun capable de se déplacer jusqu’à 10 degrés de liberté.
Ils ont présenté leurs méthodes dans une étude publiée le 14 janvier dans la revue Robotique scientifique.
Comment EMO a appris à bouger son visage comme un humain
EMO utilise un système d’intelligence artificielle (IA) appelé modèle de langage « vision-action » (VLA), ce qui signifie qu’il peut apprendre à traduire ce qu’il voit en mouvements physiques coordonnés sans règles prédéfinies. Pendant l’entraînement, le robot humanoïde a fait des milliers d’expressions et de mouvements de lèvres apparemment aléatoires tout en regardant son propre reflet dans le miroir.
Ensuite, les scientifiques ont assis EMO devant des heures de vidéos YouTube montrant des humains parlant dans différentes langues et chantant. Cela lui a permis de relier sa connaissance de la façon dont ses moteurs produisaient des mouvements faciaux aux sons correspondants, le tout sans aucune compréhension de ce qui se disait. Finalement, EMO a pu prendre de l’audio parlé dans 10 langues différentes et synchroniser ses lèvres presque parfaitement.
« Nous avons eu des difficultés particulières avec les sons durs comme ‘B’ et avec les sons impliquant des plissements de lèvres, comme ‘W' », Hod Lipsonprofesseur d’ingénierie et directeur du Creative Machines Lab de Columbia, a déclaré dans un déclaration. « Mais ces capacités s’amélioreront probablement avec le temps et la pratique. »
De nombreux roboticiens ont essayé et a échoué pour créer un humanoïde convaincant, donc avant de dévoiler EMO au monde, il fallait le tester devant de vraies personnes. Les scientifiques ont ensuite montré à 1 300 volontaires des vidéos du robot parlant en utilisant le modèle VLA et deux autres approches pour contrôler sa bouche, ainsi qu’une vidéo de référence démontrant le mouvement idéal des lèvres.
Les deux autres approches étaient une ligne de base d’amplitude, dans laquelle EMO bougeait ses lèvres en fonction du volume de l’audio, et une ligne de base de repères du voisin le plus proche, dans laquelle il imitait les mouvements du visage qu’il avait vu d’autres faire et qui produisaient des sons similaires. Les volontaires ont été invités à choisir le clip qui correspondait le mieux au mouvement idéal des lèvres, et ils ont choisi VLA dans 62,46 % des cas, contre 23,15 % et 14,38 % pour l’amplitude et les repères du voisin le plus proche, respectivement.
Les soigneurs de robots auront besoin de visages amicaux
Bien qu’il existe des différences entre genres et cultures Dans la façon dont les gens répartissent leur regard, les humains en général s’appuient fortement sur les signaux faciaux lorsqu’ils interagissent les uns avec les autres. UN Étude de suivi oculaire 2021 ont constaté que nous regardons le visage de nos interlocuteurs 87 % du temps, avec environ 10 à 15 % de ce temps spécifiquement consacrés à la bouche. D’autres recherches ont montré que les mouvements de la bouche sont si importants qu’ils même affecter ce que nous entendons.
Les chercheurs pensent que négliger l’importance du visage est en partie la raison pour laquelle d’autres projets n’ont pas réussi à créer des robots convaincants.
« Une grande partie de la robotique humanoïde se concentre aujourd’hui sur le mouvement des jambes et des mains, pour des activités comme la marche et la préhension », a déclaré Lipson. « Mais l’affection faciale est tout aussi importante pour toute application robotique impliquant une interaction humaine. »
Alors que la technologie de l’IA continue de avancer à un rythme effrénéles robots devraient assumer un nombre croissant de rôles nécessitant une interaction directe avec les humains, notamment dans éducation, médecine et soins aux personnes âgées. Cela signifie que leur efficacité sera corrélée à leur capacité à correspondre aux expressions faciales humaines.
« Les robots dotés de cette capacité auront clairement une bien meilleure capacité à se connecter avec les humains, car une partie aussi importante de notre communication implique le langage corporel du visage, et ce canal dans son intégralité est encore inexploité », a déclaré l’auteur principal de l’étude. Yuhang Hudans le communiqué.
Mais son équipe n’est pas la seule à travailler à rendre les robots humanoïdes plus réalistes. En octobre 2025, une entreprise chinoise a publié une vidéo d’un tête de robot étrangement réalistecréé dans le cadre de leurs efforts visant à rendre les interactions entre les personnes et les robots plus naturelles. L’année précédente, une équipe japonaise avait dévoilé un peau artificielle auto-cicatrisante cela pourrait donner aux visages des robots un aspect humain.

