CNN +加速器IP

AI加速使用低功率fpga

相关应用程序bobappios下载地址


通讯订阅

定制卷积神经网络(CNN)IP- CNN加上IP是一个灵活的加速器IP,通过利用莱迪思FPGA的并行处理能力,分布式存储器和DSP资源,简化了实施超低功耗的AI。

可配置的使用方式-两种实现可用,紧凑或高性能。紧凑模式是利用FPGA本地内存的低功耗处理模式。另一方面,高性能模式针对更大的网络实现进行了优化。

易于实施- 使用常见的机器学习框架,训练的模型,如TensorFlow可以使用莱迪思神经网络编者工具进行编译和使用CNN加上加速IP上实现硬件。

特征

  • 执行由格子NN编译工具产生的一系列每个命令序列的计算
  • 功耗和性能之间权衡配置资源使用
  • 可以运行在紧凑的低功率模式或高性能模式
  • 需要内部和外部存储器资源优势和管理来优化性能访问
  • 神经网络的权重的配置的比特宽度(16位,8位,1位)

跳转到

框图

CNN + IP紧凑模式框图

CNN加上IP高性能模式框图

性能和尺寸

交联-NX性能和资源利用率
组态3 CLK_I,aclk_i的Fmax(MHz)的2 切片寄存器 附近地区 LRAMs ebr4 逻辑DSP
MULT9, MULT18 MULT18, PREADD9
默认的 116.401, 118.652 2855 3673 2 12 13,1 13日13
Scatch片上存储器大小= 4K,其它=默认 119.962, 118.259 2890 3689 2 15 13,1 13日13
Scatch Pad内存大小=8K,其他=默认 121.832,116.009 2898 3685 2 19 13,1 13日13
Scatch Pad内存大小=16K,其他=默认 118.751,113.598 2880 3703 2 27 13,1 13日13
内存类型= SINGLE_LRAM别人=违约 115.062,113.404 2869 3631 1 12 13,1 13日13
机器学习类型= OPTIMIZED_CNN 123.609,113.662 5687 7693 2 17 48,4 48,48
机器学习类型= OPTIMIZED_CNN,Scatch片上存储器大小= 2K,其他=默认 117.564,109.158 5695 7717 2 21 48,4 48,48
机器倾斜类型=OPTIMIZED_CNN, Scatch Pad内存大小=4K,其他=默认 124.239,118.092 5709 7711 2 29 48,4 48,48
机器学习类型=OPTIMIZED_CNN, Scatch Pad内存大小=8K,其他=默认 120.963, 112.133 5707 7706 2 45 48,4 48,48
机器倾斜类型=OPTIMIZED_CNN, Scatch Pad内存大小=8K,最大突发长度=256,其他=默认 123.289,120.875 5709 7722 2 45 48,4 48,48

使用不同的软件版本或靶向不同的设备密度或速度等级时1.性能可以变化。
2.Fmax是FPGA设计中仅包含CNN +加速器IP核时生成的。当在FPGA设计中加入用户逻辑时,这些值可能会降低。
3.“Scatch Pad Memory Size=*K”中的K值等于1024项x 2字节。例如,4K等于8 kB的暂存存储器。
4.OPTIMIZED_CNN实现有更多的EBRs,因为它在卷积scratch strorage中复制了EBRs以支持并行处理。另外,一些重复的子模块有它们自己的EBR: CONV_EU(每个单元1个EBR)和POOL(2个单元共享1个EBR)。

订购信息

家庭 零件号 描述
Certus-NX CNNPLUS-ACCEL-CTNX-U 单一的设计许可证
Certus-NX CNNPLUS-ACCEL-CTNX-UT 多站点许可
CrossLink-NX CNNPLUS-ACCEL-CNX-U 单一的设计许可证
CrossLink-NX CNNPLUS-ACCEL-CNX-UT 多站点许可

文档

快速参考
标题 版本 日期 格式 尺寸
CNN加加速器IP用户指南
FPGA-IPUG-02115 1.0 5/21/2020 PDF 1.1 MB

*通过点击“更改时通知我”按钮,您同意就改变你选择的文件(S)收到通知。

与大多数网站一样,我们使用cookie和类似的技术来增强用户体验。我们也允许第三方把饼干在我们的网站。继续使用这个网站,你同意使用Cookie和描述我们饼干的政策