今天凌晨,一年一度的Google I/O 大会在山景城拉开帷幕。
在这场将近两小时的keynote上,谷歌深刻贯彻了什么是无处不在的AI和数据隐私保护。在正式展开之前我们先划一下重点:
1、谷歌搜索加入AR以及更加智能的Google Lens;
2、会打车、会自拍的AI语音助手;
3、Live Transcribe、Live Caption、Live Relay、Project Euphoria四大技术/项目让世界更美好;
4、Android Q更新,强调数据隐私保护和健康管理;
5、发布新一代带屏智能硬件Nest Hub Max和中端手机Pixel 3a;
6、Jeff Dean再谈谷歌AI的新进展。
Google Lens,扫一下告诉你最好吃的菜
今天第一个登台演讲的是谷歌女高管Aparna Chennapragada,她谈了摄像头和谷歌搜索的结合,包括两个特点:一是谷歌搜索结果可以AR化,二是更加智能化的Google Lens。
在AR如何让视觉搜索更形象方面,比如用谷歌搜索肌肉伸缩,可以直接在搜索结果中看到3D模型,并且这个模型能以AR的形式呈现在现实世界中。
现场谷歌还直接将AR鲨鱼放到了舞台上。
Google Lens则是用更加智能的图像识别,让你扫一下菜单就能知道餐馆最好吃的菜是什么:当你在餐厅里直接用摄像头对准菜单,Lens会自动高亮最受欢迎的菜。再比如将谷歌的摄像头对准杂志上的菜谱,它会直接告诉你这道菜怎么做。
除此之外, Google Lens还融合了语音功能,可以在识别一段英文文字后将其翻译并用自己的母语来朗读。
目前Google Lens已经内置到Google Assistant、Google Photos、以及相机App中。
AI语音助手,既打电话,也帮你打车
今天第二个亮相的则是去年让大家惊艳的Duplex,不过这次不是打电话,而是帮用户叫车。对Google Assistant说一声我要打车,它可以连续打开日历、邮件、打车等应用,自动帮你填写信息,你只需要核实这些信息,点击确认就一切OK。
另外,谷歌正在将Duplex带入到web中,以后即便没有app,只要有网就能使用它。
皮猜说,“智能语音助理整合了很多机器学习模型,以前我们把谷歌的数据中心塞到手机是个比较大的挑战,但深度学习可以把100GB的数据压缩到0.5GB,这样就可以直接放到移动设备中使用,网络延迟十分低,它会改变我们系统的未来。”
现场谷歌演示了“无所不能”的AI语音助手,只要一声“Hey Google”,就能完成一系列连续的语音命令,帮你写邮件、帮你自拍、帮你发照片……同时,谷歌语音助理还能提供个性化服务,包括推荐量身定制的晚餐食谱。
除此之外,谷歌语音助理还添加了语音车载服务,通过“Hey Google, let's drive”的语音命令即可启用。
皮猜表示谷歌最新的手机中将搭载最新一代的语音助理。