智能语音简史:这场技术革命从哪开始?

与非网 中字

同年,清华大学和中科院声学所在大词库汉语听写机的研制上取得了突破性进展。

1990年,声龙发布了第一款消费级语音识别产品Dragon Dictate,价格高达9000美元。

1992年,IBM引入了它的第一个听写系统,称为“IBM Speech Server Series (ISSS)”。

1992年研发的Sphinx-II在同年美国国防部先进技术研究计划署(DARPA)资助的语音基准评测中获得了最高的识别准确度,这主要得益于其在高斯混合和马尔可夫状态层次上用栓连参数平衡了可训练性和高效性。

1995年,Windows 95上首次搭载微软SAPI,它使应用程序开发者能够在Windows上创建语音程序。

1995年,AT&T研究院的 Dave Ladd, Chris Ramming, Ken Rehor 以及 Curt Tuckey 在头脑风暴关于互联网会如何改变电话应用的时候,产生了一些新的想法:为什么不设计这样一个系统来运行一种可以解析某种语音标记语言的语音浏览器,用来把互联网的内容和服务提供到千家万户的电话上。于是,AT&T就开始“电话网络项目”(Phone Web Project)。之后,Chris继续留在AT&T,Ken去了朗讯,Dave和Curt去了摩托罗拉。(1999年初的时候,他们分别在各自的公司迈出了语音标记语言规范实质性的第一步。因为他们的密友关系,这几家公司合作成立了一个VoiceXML论坛组织,IBM也作为一个创始公司加入了进来。)

1997年IBM ViaVoice首个语音听写产品问世,你只要对着话筒喊出要输入的字符,它就会自动判断并且帮你输入文字。次年又开发出可以识别上海话、广东话和四川话等地方口音的语音识别系统ViaVoice’ 98。

1998年,微软在北京成立亚洲研究院,将汉语语音识别纳入重点研究方向之一。

2001年,比尔盖茨在美国消费电子展上展示了一台代号为MiPad的原型机。Mipad展现了语音多模态移动设备的愿景。

2002年,中科院自动化所及其所属模式科技公司推出了“天语”中文语音系列产品——Pattek ASR,结束了该领域一直被国外公司垄断的局面。

2002年,美国国防部先进技术研究计划署(DARPA)首先启动了EARS项目和TIDES 项目; 由于EARS项目过于敏感,EARS和TIDES两个项目合并为“全球自主语言开发”(Global Autonomous Language Exploitation,GALE)。GALE目标是应用计算机软件技术对海量规模的多语言语音和文本进行获取、转化、分析和翻译。

2006年,辛顿(Hinton)提出深度置信网络(DBN),促使了深度神经网络(Deep Neural Network,DNN)研究的复苏,掀起了深度学习的热潮。

2009年,辛顿以及他的学生默罕默德(D. Mohamed)将深度神经网络应用于语音的声学建模,在小词汇量连续语音识别数据库TIMIT上获得成功。

2009年微软Win7集成语音功能。

2010年Google Vioce Action支持语音操作与搜索。

2011年初,微软的DNN模型在语音搜索任务上获得成功。

同年科大讯飞将DNN 首次成功应用到中文语音识别领域,并通过语音云平台提供给广大开发者使用。

2011年10月,苹果iPhone 4S发布,个人手机助理Siri诞生,人机交互翻开新篇章。

2012年,科大讯飞在语音合成领域首创RBM技术。

2012年,谷歌的智能语音助手Google Now 的形式出现在众人面前,用在安卓 4.1 和 Nexus 手机上。

2013年,Google发布Google Glass,苹果也加大了对iWatch的研发投入,穿戴式语音交互设备成为新热点。

同年,科大讯飞在语种识别领域首创BN-ivec技术。

2014 年,思必驰推出首个可实时转录的语音输入板。

2014年11月,亚马逊智能音箱Echo发布。

2015 年,思必驰推出首个可智能打断纠正的语音技术。

2016年,Google Assistant伴随Google Home 正式亮相,抢夺亚马逊智能音箱市场。(亚马逊Echo在2016年的智能音箱市场占有率达到了巅峰的88%)

同年,科大讯飞上线DFCNN(深度全序列卷积神经网络,Deep Fully Convolutional Neural Network)语音识别系统。

同年11月,科大讯飞、搜狗、百度先后召开发布会,对外公布语音识别准确率均达到“97%”。

2017年3月,IBM结合了 LSTM 模型和带有 3 个强声学模型的 WaveNet 语言模型。“集中扩展深度学习应用技术终于取得了 5.5% 词错率的突破”。相对应的是去年5月的6.9%。

2017年8月,微软发布新的里程碑,通过改进微软语音识别系统中基于神经网络的听觉和语言模型,在去年基础上降低了大约12%的出错率,词错率为5.1%,声称超过专业速记员。相对应的是去年10月的5.9%,声称超过人类。

2017年12月,谷歌发布全新端到端语音识别系统(State-of-the-art Speech Recognition With Sequence-to-Sequence Models),词错率降低至5.6%。相对于强大的传统系统有 16% 的性能提升。

市场分析公司Canalys在2018年1月分布一份报告,其预测2018年将是普及智能音箱的“决定性一年”,相比全年出货量刚过3000万台的2017年,2018年智能音箱全球出货量预计将达到5630万台。

中投顾问发布的《2018-2022年中国智能语音行业深度调研及投资前景预测报告》显示我国智能语音市场整体处于启动期,智能车载,智能家居,智能可穿戴等垂直领域处于爆发前夜。

文章引用

[1] 李晓雪. 基于麦克风阵列的语音增强与识别研究[D]. 浙江大学, 2010.

[2] 倪崇嘉, 刘文举, 徐波. 汉语大词汇量连续语音识别系统研究进展[J]. 中文信息学报, 2009, 23(1):112-123.

[3] 高朝煌. 非特定人汉语连续数字语音识别系统的研究与实现[D]. 西安电子科技大学, 2011.

[4] 《2017年的语音识别,路只走了一半》

[5] 《2018-2022年国内外智能语音发展的分析》

[6] 《四十年的难题与荣耀—从历史视角看语音识别发展》

[7] 《几个常见的语音交互平台的简介和比较》

[8] 《VoiceXML简介》

[9] 《思必驰官方介绍资料》


声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存