被诟病“不好用”的Siri,曾一度因为HomePod的发布迎来更加糟糕的风评。
作为“智能音箱”,HomePod的音质收获了几乎所有人的一致赞美,但代表其“智能”这部分的Siri却表现欠佳。在亚马逊和Google两家巨头将智能语音助手之争演变成军备竞赛的这两年里,Siri始终没有什么存在感。相比Alexa和GoogleAssistant,Siri常常被用户吐槽“听不懂,做不到”,整体的指令识别成功率偏低。同时,Siri的第三方开发的生态也不如Alexa和Google那么丰富,用户也很难通过向Siri下达指令来获取第三方服务。
但这一次,苹果不想再让用户久等。就在各种批评声音还未散去之时,苹果在WWDC18上针对Siri交出了一份答卷。苹果为Siri体系带来了一个全新的自动化工具:Shortcuts,这相当于给Siri配上了一台全新的发动机。Shortcuts让用户可以将指令和动作依照自己的需求绑定起来,也让Siri可以更细致地获知用户的需求,并且主动给出推荐。通过Shortcuts,苹果希望让Siri能听懂用户的指令,接入到尽可能多的服务,最终融入丰富广阔的iOS开发生态。
在Siri和第三方App间搭起一座桥
这并不是苹果第一次为Siri的开放费尽心思。
在2016年的WWDC上,苹果就发布了SiriKit。这是苹果第一次将Siri开放给第三方开发者,希望用户可以借助Siri访问更多第三方服务。开发者可以基于自己的App功能定义指令,然后苹果会将这些指令集成到Siri里,当用户发出的语音指令中包含正确的触发词时,App内的功能就会被触发。
但这个功能一直存在着一个隐患。自然语言里的关键词极为有限,如果少数的重要关键词比如“叫车”、“订餐”被少数的开发者所把控,这是会比“域名争夺”更可怕的一件事。因此,苹果在此事上一直保持着谨慎的态度。针对SiriKit,苹果最初仅仅开放了包括短信和通话在内的6类服务,允许开发者接入。虽然苹果后续又陆续开放了一些服务,但真正得以接入SiriKit的App数量少得可怜。另一方面,即便是接入了SiriKit的App,也因为开发者定义的指令不能广泛契合大多数用户发出语音指令的方式,很难让用户流畅使用。
不过,苹果并没有放弃这方面的努力,并且在仔细思考,如何在Siri开放的过程中利用好自身优势。去年3月,苹果宣布收购Workflow。基于泛化的网址系统(包括一切url和urlscheme)。这个iOS上的著名自动化App可以让用户可以将不同的指令、动作串联起来,编写自动化操作。
在被苹果收购之后,iOS商店里Workflow的价格从之前的18-45元人民币变为免费,整个开发团队也得以加入苹果。当时外界普遍认为,苹果是希望基于Workflow来为iOS打造一款类似macOS上Automator的生产力工具。但苹果显然着更深层次思考,在收购Workflow之后,苹果将整个团队整合进了Siri团队,在过去的一年多时间里,基于Workflow,这个新融合的团队开发出了Shortcuts。
在智能钥匙扣的App里,让钥匙扣响铃就变成了一个Intention。
脱胎于Workflow的Shortcuts在“第三方服务接入”这件事上获得了一个质的飞跃。任何开发者都可以在自己的App内定义一些名为“Intention”的动作:比如用户用星巴克App点咖啡,星巴克的开发团队就可以将“点咖啡”这个动作定义为一个Intention。而这些Intention最终都可以被用户手动加入到Siri。App开发者也不再需要去思考“用户会说什么关键词来触发我的服务”,而是只需要将用户在自家App上进行的动作总结、精炼出来,接入到Shortcuts就行了。
Shortcuts使任何iOS开发者都可以轻松地将自己的App接入Siri,满足用户的需求。它相当于一座桥梁,将丰富而广阔的iOS应用生态,和不够完善的Siri进行了一种连接。
当Alexa和GoogleAssistant正各自试图将自家的语音助手打造成一个独立的平台、并拉拢新开发者时,苹果正试图利用iOS本身的优势来完成一次超越。
Siri的主动推荐有了更丰富的细节
2016年,随着iOS9的问世,苹果推出了“ProactiveSiri”(Siri主动推荐)功能。苹果希望Siri不仅仅是一个被动接受并执行指令的“语音助手”,而是想让它成为一个能主动预测用户需求的智能私人助手。藉由Siri主动推荐功能,用户在特定的地点和时间,会在多任务界面看到推荐打开的App;连上车载蓝牙之后iPhone会自动给出回家的路线规划和行程预测;Siri会自动识别规律性日历项发生的地点,提前预测路况,提醒你该出发了;插上耳机之后iPhone会自动推荐打开你常用的音乐或视频App……
但就过去两年,就在GoogleAssistant和Alexa高歌猛进时,Siri的主动推荐功能并没有成为iOS下的“杀手级功能”,甚至都不怎么为人所知。背后的一个重要原因是,其针对第三方App的支持仅仅只能停留在“推荐用户打开App”这样一个很浅的层面上,它既无法从App中获取到更深层次的信息,也无法一步深入到App内的某个行为上。其中真正有意义的深度推荐都是基于苹果自家App的,这就大大限制了Siri主动推荐的发挥空间。
现在,苹果希望Shortcuts的出现彻底改变这个困境。
Siri会自动分析你的需求给出动作推荐
在Shortcuts中,由开发者定义的“Intention”将会被整体接入到Siri主动推荐中。开发者可以定义这个动作的关键参考要素,比如时间、地点……这样iOS就会在后台对用户进行这些动作时的关键参考要素进行观察,比如用户每天早上都会用某个App点咖啡,那么Siri就会以通知的形式在早上主动推荐用户执行这个动作,用户只需要在锁屏界面点击一下,App就会接到指令,自动帮忙点好咖啡。同时,这些Shortcuts也会在AppleWatch的Siri表盘上显示,并可以在智能手表上执行。
这套机制让Siri可以更精细地洞察用户的需求,提供更多方便的快捷方式。更“贴心”的一点是,苹果在进行这一系列创新时,已经自觉站在了用户那边,它周全的考虑了用户隐私的问题:这些和用户需求相关的数据收集和处理全部都由iOS在本地执行,开发者并不能获取到详细的用户行为数据。
让用户自己来训练和教导Siri
除了自动推荐,苹果当然也没忘了Siri最初的起点——语音控制。
在iOS12之前,人们对Siri最大的不满,并非在于Siri听不懂他们在说什么——事实上,Siri大部分时候都能够将声音比较准确地转换为文字。但将不同用户心中各不相同的自然语言习惯转换成正确的命令,才是Siri一直没有跨越的门槛。
在Twitter上,著名科技评论人莫博士曾经毫不留情的吐槽过Siri理解指令的能力:在控制播放音乐时,用户必须按照标准的句式,准确地说出歌名、专辑名、歌手名,Siri才能正确地理解你想听的是什么,否则就很容易表现成“人工智障”。
自然语言处理是计算机领域几十年来的难题,也是智能语音助手想要真正进入更复杂场景时必须跨越的巨大障碍。现在,苹果在这件事上做出了一个关键选择。它不再完全让iOS团队或第三方app开发者来决定Siri对自然语言的理解,而是把训练和教导Siri“听话”的权利交给用户。
也就是说,用户现在可以将各种app的动作编写成Shortcuts,然后自己设置一个触发词来执行Shortcuts。一个典型的场景是,用户可以将“打开家里的空调”、“向家人发一条短信告知自己晚上回来吃饭”、“叫一辆回家的Uber”三件事连在一起编写成一个Shortcut,将Siri关键词设置成“下班回家”,在晚上离开办公室前,对Siri说一句“下班回家”,Siri就会自动完成开空调,发短信以及叫Uber三个动作。
我们使用手机的方式是很复杂的,即使业界高喊着voice-first,语音交互真正能接管的,还是很少的一部分场景。而Shortcuts要做的,就是把那些具有一定复杂性但有规律可循的任务,让用户去自定义设置程序并教给Siri。进而把一个非常复杂的流程变成一句语音指令就可以搞定的事。用户不再需要去“不断尝试”什么样的指令是Siri能听懂的,而是可以像做一个Workflow一样把很多不同的动作变成一种“一触即发”的体验。
这种机制让Shortcuts可以在AppleWatch和HomePod上被轻松触发,AppleWatch和HomePod会将执行Shortcuts的指令发送到iPhone。同时也让多语言的Siri变得有可能。对于中国用户来说,需要用到多语言的情况还是挺常见的,而通过Shortcuts,类似“用中文Siri无法控制播放英文歌曲”的问题都可以通过自己设定Shortcuts来解决,你可以用中文指令去控制播放英文的歌单、播客,也可以用英文指令去触发中文App里的订餐、打车以及发短信。
在我们都以为作为“语音助手”的Siri正被亚马逊和谷歌远远地甩在身后时,苹果却已经对Siri有了更深远的思考。很显然,苹果正希望Siri超越语音助手的定位,成为一个能够听懂指令,且能够主动理解用户需求的“综合性AI助手”。只不过,想要达成这个目标很困难,在过去的几年里,苹果的尝试没有取得太多成功。
而Shortcuts的问世,让开发者和用户被放到了各自合适的位置上,将一个远大却有点虚无缥缈的目标,转化成了一种更实际的应用机制。它让更多的第三方服务有机会轻松接入Siri,也让Siri能够调用App内更深层次的动作,并且让用户能够主动控制这件事。
拥有这样一个全新的发动机后,Siri需要达成的目标不再“神奇”,已经开始变得更加“实际”。这或许是我们在iOS12中看到的最令人兴奋的更新之一。(作者:Jesse)