中国的研究团队开发了一种名为RGMP的框架,旨在让类人机器人在没有特别训练的情况下也能轻松操控物体。武汉大学的Xuetao Li和他的团队在一篇新论文中详细介绍了这个模型。他们希望这种方法能让类人机器人处理更广泛的物体和任务。目前,类人机器人在执行特定任务方面表现出色,但遇到形状变化或光线不同的物体时常常失败。武汉大学的团队为了克服这个问题,提出了RGMP框架。这个框架包含两个主要部分:几何先验技能选择器(GSS)和自适应递归高斯网络(ARGN)。 GSS帮助机器人确定哪个工具和技能最适合完成任务。机器人通过传感器获取信息,如物体的形状和大小,然后利用这些信息选择合适的动作。ARGN则帮助机器人执行选定的动作。它通过建模机器人和物体之间的空间关系来实现这一目标。ARGN还有预测机器人动作的能力,并且数据效率很高,比传统深度学习方法所需的训练样本少得多。在测试中,使用RGMP框架的机器人在没有任何经验的新任务中成功率达到了87%,显著高于竞争对手。此外,RGMP的数据效率比目前最先进的扩散策略模型高出5倍。这使得机器人可以在家庭环境中执行清洁、整理甚至做饭等任务。 团队希望未来能够扩展RGMP,让机器人几乎不需要人类指导就能学习新任务。他们还计划帮助RGMP自行推断新物体的正确操作方式并生成针对特定任务的运动模式。Xuetao Li表示他们未来的研究重点是提升RGMP框架在更多任务中的适应能力。他补充道,他们还计划探索自动推断任务特定动作轨迹的方法,减少动态环境中详细教学的需求。