英研究团队研发非神经网络硬件降低人工智能功耗

OFweek人工智能网 中字

日前,英国纽卡斯尔大学的研究人员研发出一种非神经网络硬件,可以显著降低人工智能的功率消耗。

研发团队训练了一个神经网络,让它和另一项Tsetlin机器技术,分别从标准MNIST数据集识别手写数字。

纽卡斯尔大学高级讲师Rishad Shafik表示:“即开即用的神经网络让我们每焦耳可以进行不到10万亿次操作。而使用我们设计的第一台Tsetlin机器,这个数值能达到65万亿次。这种改进主要来自于简化过的逻辑设计。”

他补充说,在上述数字识别实验中时,一台Tsetlin机器“可以识别15个单词,与神经网络识别一个单词所需的能量消耗相同”。

Tsetlin机器是一种“学习自动机”(learning automata),它最早是由俄罗斯科学家Mikhail Tsetlin在20世纪60年代发明的一种机器学习算法。Shafik解释说,这种算法的问题在于,在其基本形式中,“学习自动机几乎不可能在硬件上实现,因为有大量的状态需要去适应”。

挪威阿格德大学的AI教授Ole-Christoffer Granmo说,在过去的几年里,他通过将学习自动机与经典的博弈论和布尔代数相结合,找到了一种降低学习自动机复杂性的方法。他将简化版的学习自动机应用到软件中,并以该学科创始人的名字将其命名为“Tsetlin机器”(Tsetlin machine)。

在Granmo的研究基础以及他本人的协助下,纽卡斯尔团队找到了一种能够有效地将Tsetlin机器的数据类型和基础算法映射到逻辑门上的方法,并在FPGA和定制ASIC上成功实现,他们采用的的形式不仅适用于训练/学习AI阶段,同时也适用于训练之后,也就是所谓的AI推理阶段。

Shafik将Tsetlin机器和神经网络之间的功耗差别归结于它们映射到硬件上的方式:神经网络,包括二值神经网络在内,都是算术,它们包含了许多乘法和加法操作,而Tsetlin机器硬件不使用算术。他表示:“这纯粹是逻辑上的平行操作。”

纽卡斯尔微系统研究小组组长Alex Yakovlev,同时也和Shafik一样是AI团队的领导者,他表示:“能量效率是人工智能最重要的赋能因素,同样重要的是能够解释AI决策的能力。对于这两方面,我们需要摆脱算术,而我们的Tsetlin机器硬件设计正好帮我们解决了这一问题。”

这样的机器能做什么?“任何类型的机器学习都需要训练。”Shafik说道,“本质上,它能够做神经网络可以做的任何事情。”

声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存