Un procès contre la société de robotique Figure AI allègue que son robot humanoïde Figure 02 a démontré une force suffisante pour fracturer un crâne humain, suscitant des préoccupations sur les normes de sécurité. Par ailleurs, une démonstration de l'entreprise chinoise Engine AI a montré son robot T800 renverser son PDG, soulignant les incertitudes sur les capacités de ces machines. Ces incidents soulignent la nécessité d'informations plus claires sur les risques des robots humanoïdes.
Des développements récents dans le domaine des robots humanoïdes alimentés par l'IA ont mis en lumière des problèmes de sécurité potentiels, motivés par un procès et une démonstration spectaculaire.
Figure AI, une entreprise de robotique basée aux États-Unis, est impliquée dans une action en justice de son ancien ingénieur sécurité, Robert Gruendel. Le procès affirme que des tests ont révélé que le modèle Figure 02 de l'entreprise disposait d'une force suffisante pour « fracturer un crâne humain ». Gruendel allègue avoir été licencié après avoir exprimé ces inquiétudes. En réponse, un porte-parole de Figure a déclaré à CNBC que les allégations étaient infondées et que Gruendel avait été licencié pour « mauvais rendement ». Les tentatives de contacter Figure et les représentants légaux de Gruendel n'ont pas donné lieu à d'autres commentaires.
De l'autre côté du monde, Engine AI, une entreprise chinoise de robotique, a partagé une vidéo où son robot T800 — nommé d'après l'antagoniste de la série Terminator — a poussé son PDG au sol. L'exécutif portait un rembourrage protecteur et s'attendait à l'action, mais les images laissent une ambiguïté quant à la puissance précise du robot. Les experts notent que des métriques comme le couple maximal ou la capacité de charge ne se traduisent pas facilement en force d'impact sur un humain ou en dommages potentiels.
Ensemble, ces événements de Figure AI et Engine AI alimentent les débats sur la transparence. Les développeurs de robots humanoïdes pourraient devoir divulguer des données plus détaillées sur les forces de leurs créations pour évaluer et atténuer adéquatement les dangers associés. De telles divulgations pourraient aider à établir des protocoles de sécurité robustes à mesure que la technologie progresse.
Bien que les implications complètes restent floues, ces histoires mettent l'accent sur les défis d'évaluation des capacités des robots IA au-delà des démonstrations promotionnelles.