卷积神经网络(CNN)加速器IP

快速实现机器学习推理

利用FPGA的并行处理能力实现CNN。该IP能让您实现自定义神经网络或使用由其他人发布的诸多常用神经网络算法。

我们的IP可灵活调整加速引擎的数量。通过调整加速引擎的数量和分配的存储空间的大小,用户可以充分调整处理速度和FPGA资源,从而获得针对其应用的最佳组合方式。

CNN加速器IP与莱迪思神经网络编译器工具配合使用。编译器能对在常见的机器学习框架中开发的神经网络进行资源使用情况分析,模拟性能和功能并编译CNN加速器IP。

  • 支持卷积层、最大池化层、批量标准化层和全连接层
  • 可配置的权重位宽(16位、1位)
  • 可配置的激活值位宽(16/8位、1位)
  • 动态支持16位和8位激活值
  • 存储器块数量可配置,实现资源和性能间的平衡
  • 卷积引擎数量可配置,实现资源和性能间的平衡
  • 自动量化和分数设置支持
Lattice sensAI

跳转到

框图

性能和尺寸

ECP5性能和资源使用情况1
卷积引擎数量 Blob内部存储器数量 寄存器 LUT Slice BRAM clk Fmax (MHz) 2
1 2 3607 4829 3601 25 150.218
4 8 9064 13661 9890 76 144.509
8 16 16482 25889 18456 144 121.892

1. 以上数据是使用Lattice Diamond 3.10.0.111.0.和Synplify Pro综合工具以及LFE5UM-85F-8BG756I器件得出的。使用不同的软件版本或不同密度或速度等级的器件时,性能可能会有所不同。
2. Fmax是在FPGA设计仅包含CNN加速器IP核时生成,当用户逻辑添加到FPGA设计时,该数值可能会降低。

订购信息

产品系列 产品编号 描述
ECP5 CNN-ACCEL-E5-U 单次设计许可
ECP5 CNN-ACCEL-E5-UT 站点许可

文档

快速参考
下载
标题 编号 版本 日期 格式 文件大小
CNN Accelerator IP User Guide
FPGA-IPUG-02037 2.0 9/24/2018 PDF 809.9 KB
标题 编号 版本 日期 格式 文件大小
CNN Accelerator IP Package
2.0 5/20/2019 ZIP 2.1 MB


Like most websites, we use cookies and similar technologies to enhance your user experience. We also allow third parties to place cookies on our website. By continuing to use this website you consent to the use of cookies as described in our Cookie Policy.