Lattice Blog

Share:

满足网络边缘日益增长的智能需求

Meeting Demand for More Intelligence at the Edge
Posted 08/21/2018 by Deepak Boppana

Posted in

近几十年来系统设计的处理器拓扑结构不断演化,从集中式架构转变为分布式架构,而后又回归集中式,如此反复,旨在寻找最为理想的解决方案。随着计算需求猛增,行业又开始转向基于云端计算、偏向集中式的方案。如今,企业更倾向在云端执行密集型计算和分析,利用其近乎无限的计算和存储资源、高可靠性以及低成本等优势。

随企业采用机器学习和更高级的人工智能(AI),云端的计算资源很有可能在大多数的企业布局中扮演更为关键的角色。但云端并非所有应用的最理想选择。如今人们对AI机器学习的关注通常分为以下两个阶段:首先,训练系统通过采集和分析现有数据进行学习。例如,系统通过观察成千上万张图片学习认识某个手势。这一阶段的计算极为密集。图像识别等机器学习应用中的神经网络可能需要处理数TB的数据并拥有1018次每秒浮点的计算能力。因此,这些任务通常在数据中心执行。

机器学习的第二阶段称之为推理。在此阶段机器可在现场工作中将系统的能力应用于新的数据,从而拓展其对某一任务的理解或者某一手势的定义。在人脸检测这一典型应用中,系统通过分析现场得到的图像以及纳入已习得的经验来强化智能程度,从而识别人脸。

在很多情况下这一计算密集型分析过程也在数据中心进行。然而,许多因素正在相互作用,重新定义网络边缘的计算、带宽和功耗需求。对“实时在线”的感知需求与日俱增。如今,人们用摄像头全天候监控生产线上的异常情况、监控汽车速度和道路情况、或在移动应用中识别特定的手势和面部特征。从安全的角度来看,将这些“实时在线”的数据传输至数据中心会带来新的挑战。设计人员不愿将捕捉的图像传输至云端。他们担心这会增加隐私风险和系统延迟。相反,他们希望在本地处理这些工作,这会增加本地计算需求,有时也会增加功耗。对于那些使用电池的移动产品而言,这会是个大问题。

设计人员如何在不增加功耗和带宽并且不给用户造成隐私风险的情况下赋予网络边缘更多计算能力呢?解决这一难题的方法之一是利用FPGA本身的并行处理能力,特别是针对低功耗运行进行优化的新一代低密度FPGA。这些器件结合了大量的嵌入式DSP资源和高度并行的架构,在功耗、尺寸和成本方面极具竞争优势。例如,使用莱迪思iCE40 UltraPlus FPGA来加速神经网络,功耗仅为毫瓦级;ECP5 FPGA的运行功耗则不足1W。这些器件让工程师们拥有高度的设计灵活性,使他们能够在精度和更快的处理速度或更低的功耗间自由取舍。例如,ECP5 FPGA中的DSP模块能够以远低于GPU浮点运算的功耗/MHz来进行定点运算。此外,这些器件采用高度紧凑的封装,帮助设计人员满足电子消费和工业应用对尺寸的严苛要求。

想要在网络边缘产品中获得成功,另一个关键要素能够加速低功耗(低于1W)AI解决方案原型开发的开发生态系统。为满足这一需求,我们最新推出了Lattice sensAI,首款功能全面的推理技术集合,包括了将超低功耗AI应用推向市场所需的硬件套件、神经网络IP核、软件工具、参考设计和定制设计服务。通过结合灵活的FPGA硬件和软件,sensAI可加速集成网络边缘设备上的传感器数据处理和分析。此外,设计人员可使用sensAI演示示例以及对象检测和关键词检测等常用的AI应用,在较短的开发周期内构建自定义解决方案。

网络边缘对AI解决方案与日增长的需求显然会带来新的挑战。开发人员如何在不造成隐私困扰或突破带宽和功耗限制的情况下赋予这些产品更多计算能力呢?若无硬件套件、神经网络IP核、软件工具、参考设计和定制设计服务等资源,他们又如何将全新的AI解决方案推向市场?莱迪思的低功耗、小尺寸FPGA以及全新的sensAI技术集合必将在网络边缘AI的快速演进中占据一席重地,敬请拭目以待。

Share: