为什么边缘设备和计算中的AI应用是未来?
变革一直是发展不可或缺的一部分。随着技术的飞速发展,公司也需要自己接受这些技术,以实现最大的收益。就像我们目睹了计算从大型机向云计算的转变一样,人工智能(AI)正在移向边缘IoT设备和网络。随着数据的不断增长,我们需要选择将数据存储和数据计算放置在设备上。高通,NVIDIA和英特尔等公司正在帮助我们实现这一现实。
尽管边缘站点计算系统比中央数据中心的系统要小得多,但是它们已经成熟,并且由于当今x86商用服务器的处理能力的巨大增长,现在已经成功运行了许多工作负载。此外,如果应用程序对延迟敏感,则Edge是更好的选择。更好的隐私性、安全性、低延迟和带宽是边缘平台的一些特点。
什么是边缘人工智能?
它指的是在硬件设备上本地处理的AI算法。它也被称为设备上AI。这使您可以在不到几毫秒的时间内使用设备处理数据,从而为您提供实时信息。使用Edge AI,人们可以从设备上的应用程序获得她想要的个性化功能。
根据IDC的预测,到2023年,Edge AI软件市场预计将从2018年的3.55亿美元增长到1.12万亿美元。IDC研究总监Dave McCarthy说:“ AI是边缘计算中最常见的工作负载。随着物联网实施的成熟,人们对在生成点应用人工智能进行实时事件检测的兴趣与日俱增。”
云端边缘
当前,AI处理是在需要大量计算能力的基于云的数据中心中使用深度学习模型完成的。延迟是云环境或由云支持的物联网设备面临的最常见问题之一。此外,在将数据传输到云期间,始终存在数据被盗或泄漏的风险。使用edge可以对数据进行整理,然后再将其发送到远程位置进行进一步分析。此外,边缘人工智能将实现智能物联网管理。
在基于边缘的体系结构中,推理在设备上本地发生。这样可以减少流回云的网络流量,同时将IoT设备的响应时间缩短到最短,从而使管理决策可在本地使用,并靠近具有众多优势的设备。
Edge AI需求的驱动因素:
有几个因素要求将AI处理推向边缘:
实时的客户参与度与用户或设备位置无关,例如使用设备上的在线支付,监控锻炼活动。
能够在边缘设备上运行大规模DNN模型。几种框架和技术都支持模型压缩,包括Google的TensorFlow Lite、Facebook的Caffe2Go,苹果的CoreML、Nervana的神经网络蒸馏器和SqueezeNet。
快速处理和分析物联网传感器数据。
降低Edge平台的带宽成本。
边缘设备产品:
根据AI应用程序和设备类别,有几种用于执行AI边缘处理的硬件选项。选件包括中央处理器(CPU)、GPU、专用集成电路(ASIC)、现场可编程门阵列(FPGA)和片上系统(SoC)加速器。边缘在大多数情况下指的是设备,不包括网络集线器或微型数据中心,除非其中包括网络录像机(NVR)的安全摄像机。