卷积神经网络(CNN)加速器IP

快速实现机器学习推理

利用FPGA的并行处理能力实现CNN。该IP能让您实现自定义神经网络或使用由其他人发布的诸多常用神经网络算法。

我们的IP可灵活调整加速引擎的数量。通过调整加速引擎的数量和分配的存储空间的大小,用户可以充分调整处理速度和FPGA资源,从而获得针对其应用的最佳组合方式。

CNN加速器IP与莱迪思神经网络编译器工具配合使用。编译器能对在常见的机器学习框架中开发的神经网络进行资源使用情况分析,模拟性能和功能并编译CNN加速器IP。

  • 对莱迪思神经网络编译器工具生成的每条命令序列都执行一系列的计算
  • 支持常用的神经网络模型,如Mobilenet v1/v2、Resent、SSD和VGG
  • 可配置的权重位宽(16位、8位、1位)
  • 资源使用可配置,平衡功耗和性能
  • 使用内部和外部存储资源,管理访问从而优化性能
Lattice sensAI

跳转到

框图

Convolutional Neural Network (CNN) Accelerator IP Block Diagram

性能和尺寸

ECP5性能和资源使用情况1
卷积引擎数量 Blob内部存储器数量 寄存器 LUT Slice BRAM clk Fmax (MHz) 2
1 2 3607 4829 3601 25 150.218
4 8 9064 13661 9890 76 144.509
8 16 16482 25889 18456 144 121.892

1. 以上数据是使用Lattice Diamond 3.10.0.111.0.和Synplify Pro综合工具以及LFE5UM-85F-8BG756I器件得出的。使用不同的软件版本或不同密度或速度等级的器件时,性能可能会有所不同。
2. Fmax是在FPGA设计仅包含CNN加速器IP核时生成,当用户逻辑添加到FPGA设计时,该数值可能会降低。

订购信息

产品系列 产品编号 描述
ECP5 CNN-ACCEL-E5-U 单次设计许可
ECP5 CNN-ACCEL-E5-UT 站点许可

文档

快速参考
标题 编号 版本 日期 格式 文件大小
选择全部
CNN Accelerator IP User Guide
FPGA-IPUG-02037 2.2 12/16/2020 PDF 1.3 MB