从以自我为中心的视觉输入中学习人类搜索行为

导读2022年1月5日整理发布:人类可以轻松地在复杂环境中搜索对象。最近的一篇论文提出了一个虚拟人物角色,它能够使用以自我为中心的视觉和运动

2022年1月5日整理发布:人类可以轻松地在复杂环境中搜索对象。最近的一篇论文提出了一个虚拟人物角色,它能够使用以自我为中心的视觉和运动能力在3D场景中寻找任何随机放置的对象。

深度强化学习用于训练搜索策略,该策略确定每一步的移动和注视方向。运动合成模块使用在线重新规划方法将模型不可知策略转移到特定机器人模型并合成运动学运动。

在人类角色和轮式机器人的测试中,角色能够在大空间中找到小物体,例如一副眼镜,即使它们被家具遮挡或放置在橱柜内。此外,还表明启用头部运动可以提高性能。这项研究为进一步的机器人应用带来了希望。

“寻找事物”是我们在日常生活中反复进行的一项平凡但至关重要的任务。我们介绍了一种开发人类角色的方法,该角色能够使用其运动能力和以RGBD图像表示的以自我为中心的视觉感知,在详细的3D场景中搜索随机定位的目标对象。通过剥夺人类角色的特权3D信息,它被迫同时移动和环顾四周以解决受限的感知能力,从而导致自然的导航和搜索行为。我们的方法由两个部分组成:1)基于抽象特征模型的搜索控制策略,以及2)基于搜索策略规划的轨迹合成详细运动学运动的在线重新规划控制模块。我们证明了组合技术使角色能够有效地找到室内环境中经常被遮挡的家居用品。相同的搜索策略可以应用于不同的全身字符而无需重新训练。我们通过在随机生成的场景中进行测试来定量评估我们的方法。我们的工作是创建具有由机载传感器驱动的类人行为的智能虚拟代理的第一步,为未来的机器人应用铺平了道路。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢