想象一下,当你在考虑购置椅子时,可以先用谷歌搜索一些成品,然后在客厅里试用。或者,当你正在查看东京地铁地图时,你会突然看到关于走哪条路线的建议,而这些建议会被翻译成你熟悉的语言。也许,Google AR和Google Lens可能要比你想象的来得更快。
当我在山景城参加今年的谷歌I/O大会时,我通过谷歌沉浸式实验室里里的手机镜头,在桌子上查看了一份餐馆菜单。看到感兴趣的食物?显示屏会闪烁,并突出显示了食物选择。
这些并不是狂野舞龙或全息化身,没有口袋妖怪可以找,也没有奇怪的新头显需要佩戴。谷歌今年的增强现实愿景是对实用性和辅助性的双重关注,AR被应用于谷歌搜索,而Google Lens则帮助人们阅读。虽然它看起来比几年前更温和,也不像最近涉及漫威的谷歌增强现实项目那样引人注目,但该公司正试图合理地提供帮助。在经历了几十个智能眼镜和增强现实头显的洗礼之后,我们需要真正的理由来使用这项技术。谷歌能找到前进的道路吗?
距离谷歌眼镜初次涉足智能眼镜领域已有六年时间,距离Google Tango实验性增强现实手机已有五年时间,距离Google Lens初次提供一种用手机摄像头扫描世界的方法也有两年时间了。谷歌对AR的看法可能正在转变,也许这也是不可避免的。随着手机中的增强现实已经从新奇事物转变为无处不在的现实,谷歌的下一个任务似乎是找到增强现实的好用途。
“我们认为,随着增强现实技术的发展,谷歌有机会提供更大的帮助,”虚拟和增强现实副总裁Clay Bavor在谈到谷歌今年即将推出的各种增强现实更新时表示。你也可以说谷歌正在为下一个大事件打好基础。该公司必须成为这个尚不完全存在的服务世界的数字粘合剂。就目前而言,这意味着需要让计算机视觉更加有效。谷歌今年提出了一些新的实验想法,下面我们会对此进行概述。
即时全息图
当我在搜索“老虎”时,可以看到一个点击文件,它会启动一个充满轰鸣声的动画3D文件。然后我可以在房间里使用AR,看到增强现实的老虎形象。我可以把美国宇航局火星好奇号探测器的比例模型放入房间,或者可以看到人类手臂骨骼和肌肉组织的解剖模型。
谷歌今年将AR引入了搜索之中,下面是它的工作原理:兼容的Android和iOS设备将在搜索中看到3D对象链接,该链接会调出3D模型,然后以适当的比例放入现实世界中。谷歌搜索将使用glTF格式整合3D文件,而不是苹果iOS 12中ARKit所使用的USDZ格式。据谷歌称,开发者只需添加几行代码,就可以让3D资产出现在谷歌搜索中。
“事实证明,很多零售合作伙伴都拥有3D资产,而他们所要做的就是三行代码,”相机和AR产品副总裁兼总经理Aparna Chennapragada说。“内容提供商不需要做太多其他事情。”谷歌已经与美国国家航空航天局、New Balance、三星、Target、Visible Body、沃尔沃和Wayfair进行合作,将3D资产整合到谷歌搜索中。增强现实效果推出了一个新的Android功能,叫做场景查看器。
当我尝试演示时,给我留下深刻印象的是一个简单的想法:我使用谷歌搜索作为思考方式的延伸。如果启用增强现实搜索最终能被添加到一副增强现实眼镜中,也许这意味着可以毫不费力地将物体变到现实世界中,而不需要启动任何应用。