计算机科学>机器人
标题: MoCapAct:用于模拟仿人控制的多任务数据集
摘要: 模拟人形机器人由于其物理性能而成为一个很有吸引力的研究领域。 然而,它们也很难控制,因为政策必须驱动不稳定、不连续和高维的物理系统。 一种被广泛研究的方法是利用运动捕捉(MoCap)数据来教授类人智能体的低级技能(例如,站立、行走和跑步),然后这些技能可以被重新用于合成高级行为。 然而,即使使用MoCap数据,控制模拟人形仍然非常困难,因为MoCap的数据只提供运动学信息。 寻找物理控制输入来实现演示动作需要计算密集型方法,如强化学习。 因此,尽管有公开的MoCap数据,但其效用仅限于拥有大规模计算的机构。 在这项工作中,我们通过培训和发布高质量的代理,大大降低了在基于dm_control物理的环境中跟踪模拟人形物体超过三个小时的MoCap数据,从而在这一主题上进行富有成效的研究的障碍。 我们发布了MoCapAct(动作捕捉),这是这些专家代理及其发布的数据集,其中包含本体感知观察和动作。 我们通过使用MoCapAct来训练能够跟踪dm_control中整个MoCap数据集的单一层次策略来演示MoCapAct的实用性,并表明可以重新使用学习到的低级组件来有效地学习下游的高级任务。 最后,我们使用MoCapAct训练了一个自回归GPT模型,并表明它可以控制一个模拟人形执行给定运动提示的自然运动完成。 有关结果的视频以及代码和数据集的链接,请访问 此https URL .