所有分类
  • 所有分类
  • 未分类

谷歌新方法教机器狗听懂模糊指令,用大模型实现人类-机器人交互

🆕最新资讯🆕
人类和四足机器人之间简单有效的交互是创造能干的智能助理机器人的途径,其昭示着这样一个未来:技术以超乎我们想象的方式改善我们的生活。对于这样的人类-机器人交互系统,关键是让四足机器人有能力响应自然语言指令。近来大型语言模型(LLM)发展迅速,已经展现出了执行高层规划的潜力。然而,对 LLM 来说,理解低层指令依然很难,比如关节角度目标或电机扭矩,尤其是对于本身就不稳定、必需高频控制信号的足式机器人。因此,大多数现有工作都会假设已为 LLM 提供了决定机器人行为的高层 API,而这就从根本上限制了系统的表现能力。在最新的研究中,谷歌 DeepMind 与东京大学提出了一种新方法,该方法使用足部接触模式作为连接人类的自然语言指令与输出低层命令的运动控制器的桥梁。通过这种方法,他们开发出了一种交互式四足机器人系统,使用户可以通过简单语言命令机器人进行不同的运动行为。该研究的贡献包括一种LLM prompt设计、一个奖励函数和一种能让SayTap控制器使用可行的接触模式分布的方法。研究结果表明,SayTap控制器能够实现多种运动模式,并且这些能力还可以迁移到真实机器人硬件上。这项研究的详细内容可以在论文中查看。
来源:https://www.jiqizhixin.com/

原文链接:https://aixinjiyuan.com/736.html,转载请注明出处~~~
0
广告位招租

评论0

请先
暂时无公告
显示验证码
没有账号?注册  忘记密码?