卷积神经网络(CNN)加速器IP

快速实现机器学习推理

利用FPGA的并行处理能力实现CNN。该IP能让您实现自定义神经网络或使用由其他人发布的诸多常用神经网络算法。

全文的数量批量的数量和分支的数量和分量的数量和分量的数量和分量。使用可以致调整,可分析速度和fpga资源,从而从而资源,从而获得针对应。

CNN加热器IP与莱迪思神经网站器具工具配合使用。编译器能对在常见的机器学习框架中开发的神经网络进行资源使用情况分析,模拟性能和功能并编译CNN加速器IP。

  • 对对神经网页仪器工具生成的每条命令序列执行一定的计算
  • 支持常用的神经网络模型,如Mobilenet v1 / v2,怨恨,SSD和VGG
  • 可口的权重位宽(16位,8位,1位)
  • 资源使用可配置,平衡功耗和性能
  • 使用内部和外部存储资源,管理访问从而优化性能
晶格sensAI

跳转到

框图

性能和尺寸

ECP5性能和资源使用情况1
卷积引擎数量 团内部存储器数量 寄存器 附近地区 糟糕 CLK FMAX(MHz)2
1 2 3607 4829 3601 25. 150.218
4. 8. 9064 13661 9890 76 144.509
8. 16. 16482 25889 18456 144. 121.892

1.以上数据是使用钻石3.10.0.111.0晶格。和Synplify Pro综合工具以及lfe5um - 85 f - 8 bg756i器件得出的。使用不同的软件版本或不同密度或速度等级的器件时,性能可能会有所不同。
2.Fmax是在FPGA设计仅包含CNN加速器IP核时生成,当用户逻辑添加到FPGA设计时,该数值可能会降低。

钱购信息

产品系列 产品编号 描述
ECP5 CNN-ACCEL-E5-U 单次设计许可
ECP5 CNN-ACCEL-E5-UT 站点许可

文档

快速参考
标题 编号 版本 日期 格哈 文件大小
CNN Accelerator IP用户指南
fpga - ipug - 02037 2.2 12/16/2020 PDF 1.3 MB.
像大多数网站一样,我们使用cookie和类似的技术来增强用户体验。我们也允许第三方在我们的网站上放置cookie。继续使用本网站,即表示您同意使用我们所述的cookie饼干的政策