随着深度学习技术的出现,人工智能领域取得了不小的进步,不过与此带来了人工智能系统的功耗不断增加,成为了人工智能发展的一个技术瓶颈。
针对这个问题,英特尔找到了一种解决方案,从神经科学种找到灵感,开发了一种新型的计算机架构。相较于传统的计算机架构,神经拟态架构模糊了内存和处理器之间的界限,通过数据连接、数据编码以及电路活动处理系统内部的活动。
该系统下,在信息到达时即可处理完成。在处理数据时,依靠犹如大脑中的神经元一般的数百万个简单处理单元,进行动态交互,从而实现数据计算。这种形式可以大幅度提升计算机的能效、实时处理速度以及学习数据效率。
在2017年,英特尔发布了首款神经拟态研究芯片Loihi,这款芯片采用了14纳米制程技术,像较于其他的神经拟态芯片,灵活性、集成性和速度更具有优势。
这枚芯片的学习能力远远超过其他芯片,它并没采用浮点数和乘法累加器单元以及片外内存接口。它的所有计算都将在芯片上完成,其中的内存来源于芯片神经元之间的连接。
Loihi采用了同质架构,将许多小神经拟态核实例化,每个核的大小只有针头的一部分。通过将神经拟态结构从几核扩展到几百核,可以将小型的专用工作负载扩展至 CPU 或 GPU 大小的芯片,甚至可以无缝排列。
英特尔高级首席工程师、英特尔研究院神经拟态计算实验室主任Mike Davies 介绍说:“我们的目标是支持广泛的工作负载,而不仅仅只有深度学习。因为大脑解决问题的范围很大,所以我们认为这个目标是可以实现的。我们认为还可以将这种架构从边缘扩展到数据中心,鉴于自然界中大脑容量的巨大差异,从蚂蚁到鹦鹉,再到人类的大脑。”