堆栈为边缘处的AI处理

文章:苏珊诺德克

Lattice Sensai 3.0用于设备的On-Device AI处理,用于Crosslink-NX FPGA的定制卷积神经网络IP。

Lattice Sensai 3.0用于设备的设备AI处理利用定制的卷积神经网络(CNN)加速器IP,用于低功耗28-NM FD-SOI的IPCrosslink-NX FPGA系列。堆栈简化了公共CNN网络的实现,并优化以利用FPGA的底层并行处理架构。开发人员可以轻松编译培训的神经网络模型并将其下载到Crosslink-NX FPGA。

根据晶格半导体,运行Sensai 3.0软件的Crosslink-NX FPGA与先前的解决方案堆栈的版本相比,提供了两倍的功率的性能。通过增强Sensai Stack,该公司在监控/安全,机器人,汽车和计算市场中扩大了智能视觉应用的可用电源和性能选择范围。

格子Sensai堆栈

在Crosslink-NX FPGA上运行时,Sensai堆栈提供高达2.5 MB的分布式存储器和块RAM,以及额外的DSP资源,用于AI工作负载的有效片上执行,以减少基于云的分析。此外,Crosslink-NX设备为需要MIPI支持的智能视觉应用程序提供高达2.5 Gbps的MIPI I / O速度。

以前版本的SenaI支持VGG和MobileNet V1神经网络模型。堆栈版本3.0为Gerice Ecp5系列通用FPGA系列的MobileNet V2,SSD和Reset模型增加了支持。

相关文章

发表评论