谷歌I/O 2019:增强现实正融合进谷歌业务的方方面面

8787005-08 20:45

“我们的使命是整理全球的信息,让全世界的人都能接触和使用它们”,这是谷歌21年来不变的公司使命,也是谷歌CEO皮查伊在今年谷歌I/O大会上的开场白。

作为一家一直走在技术领域最前沿的公司,谷歌对于VR/AR这两项一直很上心,从早先的Cardboard纸盒VR眼镜到Daydream VR平台再到最近的ARCore工具,谷歌一直在尝试着将VR/AR技术融入到自身的技术体系中。而今年的I/O大会中,AR成为了一个闪亮的主角。

搜索引擎与AR

作为全球最大的搜索服务提供商,谷歌今年将通过AR技术为搜索服务带来全新的体验。当用户在Google Search中搜索某样东西时,将能够搜索到该样东西的3D可交互格式glTF的“图片”,还可以通过AR增强现实功能将该物品的三维模型放到现实环境中进行查看。

现场工作人员演示了对“大白鲨”的搜索,Google Search中除了出现了和该词组相关的基本信息外,还有一个选项:“View in 3D”,此时用户点击该选项将能够在手机屏幕上查看对应的3D模型。在查看3D模型时一个新的选项“View in Your Space”将会出现,点击它将会通过手机的ARCore功能将大白鲨的三维模型放置到现实环境中,并以真实的尺寸呈现出来,让3D模型更加生动真实。

谷歌为了实现Google Search的AR功能与包括NASA、新百伦、三星、塔吉特、Visible Body、沃尔沃以及Wayfair等多个品牌进行合作,共同搭建了支撑AR功能的内容数据库,所以你无论是选购新的运动鞋还是了解航天器的相关信息,都可以在Google Search中直接查看3D模型并进行交互。

“任何拥有3D模型数据库的企业,事实上我们的零售合作伙伴例如Wayfair或Lowe都愿意加入我们的服务,他们所要做的就是写三行代码”, 谷歌相机与AR产品副总裁兼总经理Aparna Chennapragada说道。“3D模型数据提供商不必做太多其他事情。”

此外,谷歌还为Google Search的AR功能开发了新的框架,名为Scene Viewer。该框架可以从移动平台的浏览器中唤起AR体验而不再需要通过App来启动,也是Google Search的AR新功能所使用的框架。

Google Lens

Google Lens这款应用主要用于各种图片和文字的识别,可以用于物体识别、翻译、购物等多种应用场景,体验已经十分接近AR智能眼镜,唯一的区别就是Google Lens没有眼镜的外形。今年谷歌又为这款应用添加了几项新特性。

首先是智能推荐服务。如果你进入一家餐厅,拿起菜单点菜时却不知道该吃些什么,这时候只需要打开Google Lens并将镜头对准菜单,Google Lens就能够根据Google Maps应用的信息向你推荐该餐厅最受欢迎的菜肴,点击菜单项还会动态的显示照片和评论。

谷歌也在将类似的想法引入到博物馆中。谷歌正在旧金山的笛洋美术馆进行试点,当你使用Google Lens去识别美术馆中的艺术作品时,应用中会弹出与该作品相关的信息。

在新的购物、餐饮、翻译和文本过滤器的帮助下,Google Lens现在还拥有了上下文联想的能力。例如购物过滤器可以帮助你识别桌面上的植物并找到可以购买该植物的地方,不再只进行简单的识别。

其次Google Lens还加入了新的AR功能。如果你用Google Lens去扫描一些食谱,Google Lens会根据食谱的内容显示出对应的动画,清晰的表现出食物的制作过程。这一功能正处于测试阶段,除了食谱,未来还可以应用在海报、书籍等多个不同领域。目前显示的动画内容是2D的,但不排除日后谷歌为该功能加入3D动画显示的新特性。

最后则是Google Lens的即时翻译功能将通过Google Go应用程序在运行Android Go操作系统的低端安卓手机上运行。目前市场上能够使用ARCore功能的手机主要是各种品牌的高端旗舰机型,Google Go将通过云服务让低端安卓手机也能享受到同样便利的翻译服务。

ARCore通过AI模拟真实光照

在I/O大会上,谷歌表示将会为ARCore带来新的更新,在渲染、设计和交互方面进行改进。

首先是图像增强API的更新。该API将允许用户将手机摄像头对准2D图像,例如海报和包装,然后在上面叠加数字内容。本次更新发布后,该API将能够同时追踪多个运动图片。“这将解锁开发者们创作动态交互体验的能力,例如动态的卡牌游戏,这通常会需要追踪多张会移动的图片”,谷歌工程师主管Anuj Gosalia在博客中写道。

接下来是Light Estimation API的更新。该API可以估算摄像头拍摄到的环境中的环境光强度,从而在数字场景中模拟真实世界的光照条件。本次更新为该API添加了一种新模式——Environmental HDR,可以通过机器学习算法处理单个相机的画面,全方位的 “理解高动态范围照明”,从而引入有用的光照数据,为数字场景带来精确的阴影、高光、反射等画面效果。“当Environmental HDR激活时,数字场景中的物体看起来将和现实世界中的物体十分相近,两者会无缝的结合在一起,即使场景中的光源一直在移动”,Gosalia说。

Environmental HDR模式可以在以下三个API中启用:Main Directional Light、Ambient Spherical Harmonics与HDR Cubemap

最后则是上文提到的Scene Viewer框架,用于在移动平台的浏览器中提供启动AR体验,不再依赖于安卓手机原生应用程序。

Daydream或将步入历史


本次I/O大会上Daydream没有任何新的更新发布,唯一和Daydream相关的消息是最新款的Pixel 3A手机将不再支持Daydream VR平台,这是否意味着谷歌将战略性的放弃Daydream平台,将注意力更多的专注于AR领域呢?

谷歌VR/AR业务负责人Clay Bavor在接受CENT采访时表示:“就VR而言,我们现在的重心主要是服务,将重点关注我们认为VR能够真正发挥作用的领域。”他指出,谷歌仍然专注于研发,暗示短期内不会发布与Oculus Quest竞争的产品。

这番发言可能表示谷歌近期并不看好消费级VR市场,更多还是会专注于为行业应用提供服务。Daydream VR平台作为面向消费市场的产品不再受到重视自然也不奇怪了。

谷歌地图加入AR导航功能

今天的I/O大会,谷歌正式发布其AR导航功能——但目前仅限于Pixel手机。该功能可通过手机的后置相机提供实时导航:用户可以将其抬起以查看周围环境中的箭头和方向。它适用于最新发布的Pixel 3A以及较旧的Pixel手机。

去年的I/O中谷歌首次向大家展示该功能的有限演示。根据此前的报道,这种导航并不适用于传统意义上的汽车导航。但是,如果用户走下汽车并需要步行,它可能会拯救那些找不到方向的路痴。

总结

今年Google的I/O大会对于AR领域来说可谓是诚意满满,无论是Google Search搜索服务衍生的AR功能还是Google Lens的相关更新,谷歌把“实用”这张牌打到了极致。

Clay Bavor表示,谷歌对于许多手机之外的新技术仍然处于“深度研发”状态,但目前谷歌的主要目标依然是解决手机使用中的问题。这意味着未来可能会有更多不同类型的硬件出现,87君这里猜一下,Google Glass的继任产品很可能会位列其中。

“如果你考虑使用语音搜索,那么你可以将网络上的答案很好的转化为智能助理。我们在这一方面采用了相同的方法,但是我们更多的是在探索什么样的性能、特性或者功能对于智能手机的使用是有帮助的,并能够在未来转化为新的应用形式”,谷歌相机与AR产品副总裁兼总经理Chennapragada说。

对于她来说,Google Lens在今年已经变成了“AR浏览器”,并且Google对于服务的专注可能会让Google Lens进化成一种现实浏览器或者是新的平台。

对于谷歌来说,VR/AR仍然是一项处于试验阶段的新技术。未来谷歌在VR/AR领域还能够给我们带来哪些新东西?我们拭目以待。

87870原创文章


电科技(www.diankeji.com)是一家专注于全球TMT行业的领先资讯媒体。

作为今日头条青云计划、百家号百+计划获得者,2019百度数码年度作者、百家号科技领域最具人气作者、2019搜狗科技文化作者、2021百家号季度影响力创作者,曾荣获2013搜狐最佳行业媒体人、2015中国新媒体创业大赛北京赛季军、 2015年度光芒体验大奖、2015中国新媒体创业大赛总决赛季军、2018百度动态年度实力红人等诸多大奖。

投稿、商务合作请联络微信公众号

声明:本站原创文章文字版权归电科技所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表电科技立场,图文版权归原作者所有。如有侵权,请联系我们删除。

Tags:

猜你喜欢

//59087780b049bbb54ef4ba547ea51910