Achronix :eFPGA更加符合AI和机器学习需求

本文作者:徐俊毅       点击: 2018-12-26 16:05
前言:
 

Achronix Semiconductor公司市场营销副总裁Steve Mensor
 
如今,AI技术日新月异,消费、教育、金融、医疗、农业、汽车等等到处都使用AI技术提升效率,创造新的应用。面对种类繁多的AI应用需求,通用计算设备的计算能力已经捉襟见肘,以FPGA为代表的高效专用AI计算单元被以各种方式集成在计算系统中,CPU+FPGA在数据中心和云端计算系统中已经广泛使用,有SoC方式,也有单独采用FGPA加速、GPU加速,但在尺寸、功耗限制较为严格,同时又对计算能力不能妥协的应用领域,专用的ASIC加速仍然是必不可少的选择。但ASIC芯片的缺点也非常明显,就是流片之后无法改动,这会让产品的适应性受限,难以跟随快速变化的市场。
 

AI应用范围越来越广
 
今天要说的eFPGA是最近几年才出现的一种新型半导体IP(知识产权),芯片设计人员可根据设计需求,将FGPA逻辑集成到自己的ASIC或者SoC当中,很大程度上解决了ASIC芯片在流片后无法更改的问题,可在很大程度上节约设计制造以及时间成本。在AI计算加速应用需求中,这种兼具灵活性和计算效率的方式正在成为一种新的选择。
 

eFPGA的位置
 
2016年10月,Achronix宣布其Speedcore™ 嵌入式FPGA(eFPGA) IP产品实现量产供应,实现了客户在自己的SoC中对可编程逻辑的集成。在发布之时,Achronix已经向多家客户付运了Speedcore IP产品;自那时起,市场出现了大量Speedcore IP产品的需求。Speedcore IP是专为计算和网络加速应用而设计的,并基于Speedster22i FPGA系列相同的高性能架构。
 
Speedcore IP是可以集成到ASIC和SoC之中的嵌入式FPGA(eFPGA)。客户通过定制其逻辑、RAM和DSP资源需求,Achronix接下来就会为其配置满足其需求的Speedcore IP,Speedcore查找表(LUT)、RAM单元模块和DSP64单元模块可以像乐高积木一样进行组合,以便为特定的应用创建优化的可编程功能。在Speedcore IP的交付包中,也包括一个对Speedcore IP进行编程的ACE设计工具个性化版本。
 
在SoC中嵌入Speedcore技术将带来多项好处,与一款独立的FPGA芯片相比,Speedcore IP提供了以下优点:
 高出10倍的带宽
 低100倍的延迟
 低10倍的成本
 功耗降低50%

2018年12月,Achronix公司宣布推出其第四代嵌入式FPGA产品Speedcore™Gen4 eFPGA IP,以支持客户将FPGA功能集成到他们的SoC之中。Speedcore Gen4将性能提高了60%、功耗降低了50%、芯片面积减少65%,同时保留了原有的Speedcore eFPGA IP的功能,即可将可编程硬件加速功能引入广泛的计算、网络和存储应用,实现接口协议桥接/转换、算法加速和数据包处理,满足目前人工智能/机器学习的加速器的计算需求,解决海量数据带宽爆炸的一系列难题。


 
“云加速,边缘计算,自动驾驶,5G物联网以及网络加速将会是急需eFPGA IP的领域,而中国市场在云加速、网络加速和5G应用的需求更为集中。”Achronix Semiconductor公司市场营销副总裁Steve Mensor说道。
 
在Speedcore Gen4架构中,Achronix将机器学习处理器(MLP)添加到Speedcore可提供的资源逻辑库单元模块中。MLP模块是一种高度灵活的计算引擎,它与存储器紧密耦合,从而为人工智能和机器学习(AI / ML)应用提供了性能/功耗比最高和成本最低的解决方案。
 
新产品将于2019年上半年量产,采用台积电7nm工艺,2019年下半年提供同样使用台积电12nm和16nm工艺的eFPGA IP给客户。
 
“对客户来说,7nm ip购买成本与12nm和16nm没有什么区别。”Steve Mensor特别强调。