导读 当Google于2015年首次提及Project Soli时,我们知道,应用于可穿戴设备接口的雷达技术非常复杂。这家科技巨头确实在LG智能手表上演示了Pro
当Google于2015年首次提及Project Soli时,我们知道,应用于可穿戴设备接口的雷达技术非常复杂。这家科技巨头确实在LG智能手表上演示了Project Soli,我们对此有所了解。直到去年Google才获得FCC批准使用Project Soli的雷达传感器。然后,Motion Sense有望在Pixel 4上使用,但对于可以运行多少个应用程序(并非在所有国家/地区)有一定限制。您会发现,第三方开发人员还无法使用Motion Sense API。
谷歌现在正在向世界说明它的实际工作方式。这有点复杂,但至少有一些信息可供公众消化。虽然可以理解Pixel 4基于Soli雷达的感知和互动,但这仍然不简单。
这家科技巨头决定加大Pixel 4的前额,而不是使屏幕无边框。有一个原因:运动手势(Motion Sense)。设备的该部分也用于面部识别。
Google的Soli雷达技术提供了改进的手势控制。借助雷达技术,它变得更加高效。谷歌将这种技术“缩小”了。这意味着,短程雷达可以检测到诸如面部或手部之类的细微“细节”。细节上,我们仅指强度或形状不同的“信号”。它们取决于物体和传感器运动的距离。
Google已对其AI技术进行了Google志愿者的视频培训,以使其雷达“阅读”。数百个小时的运动被视为“训练”。这是雷达技术的良好开端,但目前存在限制,因为由于每个国家/地区的认证有限,并非所有Pixel 4装置都可以使用该技术。
对于某些Pixel 4和Pixel 4 XL手机,Project Soli取得了成功。基于雷达的机器感知是可能的,并且可以是无缝的。该技术还有很长的路要走。我们不知所措Google将继续进行研发,而不是仅仅决定放弃该项目。