谷歌解释Pixel4Soli雷达手势识别

导读 当Google于2015年首次提及Project Soli时,我们知道,应用于可穿戴设备接口的雷达技术非常复杂。这家科技巨头确实在LG智能手表上演示了Pro

当Google于2015年首次提及Project Soli时,我们知道,应用于可穿戴设备接口的雷达技术非常复杂。这家科技巨头确实在LG智能手表上演示了Project Soli,我们对此有所了解。直到去年Google才获得FCC批准使用Project Soli的雷达传感器。然后,Motion Sense有望在Pixel 4上使用,但对于可以运行多少个应用程序(并非在所有国家/地区)有一定限制。您会发现,第三方开发人员还无法使用Motion Sense API。

谷歌现在正在向世界说明它的实际工作方式。这有点复杂,但至少有一些信息可供公众消化。虽然可以理解Pixel 4基于Soli雷达的感知和互动,但这仍然不简单。

这家科技巨头决定加大Pixel 4的前额,而不是使屏幕无边框。有一个原因:运动手势(Motion Sense)。设备的该部分也用于面部识别。

Google的Soli雷达技术提供了改进的手势控制。借助雷达技术,它变得更加高效。谷歌将这种技术“缩小”了。这意味着,短程雷达可以检测到诸如面部或手部之类的细微“细节”。细节上,我们仅指强度或形状不同的“信号”。它们取决于物体和传感器运动的距离。

Google已对其AI技术进行了Google志愿者的视频培训,以使其雷达“阅读”。数百个小时的运动被视为“训练”。这是雷达技术的良好开端,但目前存在限制,因为由于每个国家/地区的认证有限,并非所有Pixel 4装置都可以使用该技术。

对于某些Pixel 4和Pixel 4 XL手机,Project Soli取得了成功。基于雷达的机器感知是可能的,并且可以是无缝的。该技术还有很长的路要走。我们不知所措Google将继续进行研发,而不是仅仅决定放弃该项目。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢