|
|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
AI芯片主要分为CPU 、GPU、FPGA以及ASIC。其中以CPU、GPU、FPGA、ASIC的顺序,通用性逐渐减低,但运算效率逐步提高。: R9 Q0 z( D& M) Y+ n
; f- l+ Q! W+ D
FPGA,即现场可编程门阵列,它是在PAL、GAL、cpld等可编程器件癿基础上进一步发展的产物。3 B) T6 A7 Z$ j7 Z8 [' n
# M! ~$ a3 A; Z! ?8 z
为解决能耗限制,无法使处理器核心同时运作,及性能提升有限的问题,业界提出的另一个方案就是采用“定制计算”,也就是为特定的工作场景和负载优化硬件设计。FPGA(“现场可编程逻辑阵列”)应运而生。6 A) z- g) L9 G* x8 Y
( r( V- ` l) E2 ^6 B' s, ]$ E
FPGA本质是一种可编程的芯片。可以把硬件设计重复烧写在它的可编程存储器里,从而使FPGA芯片可以执行不同的硬件设计和功能。FPGA具备以下优势:
4 e. D' R! O! R: H, T* n4 r, {! }, _; P [6 m7 ~
可编程灵活性高:FPGA属于半定制电路,理论上,如果FPGA提供的门电路规模足够大,通过编程可以实现任意ASIC和DSP的逻辑功能。* S) x u2 ~. I y. M8 w. R* a# [
$ `8 }& Z {, j' m$ r# Y- P
: S. |5 ]* c1 n- L% |1 s% z开发周期短:FPGA不需布线、掩模和定制流片等,芯片开发流程简化。传统的ASIC和SoC设计周期平均是14到24个月,用FPGA时间可以平均降低55%。* T9 X$ ?& R1 i. w
3 b; {' ]6 s6 g/ S; O( m
! V$ H, Z& C6 z2 L并行效率高:FPGA属于并行计算,一次可执行多个算法指令。虽然普遍主频较低,但对部分特殊的任务,大量相对低速并行的单元比起少量高效单元而言效率更高。+ @- l1 Q( ?" q( B# x2 J
7 z* ?4 M; ^; R
全球FPGA市场规模:17年67.5亿美元,预计2020年,CAGR为8.28%,预计2020年可达到84亿美元;全球FPGA竞争栺局:“两大两小”。! u* s0 R, n s! j7 h
$ n3 t2 ~" n J# L
1. “两大”:赛灵思和Altera,主要布局5G以及AI,主打可编程逻辑器件,带有软件工具癿可编程逻辑技术、知识产权(IP)和技术服务,合计占87%市场仹额;7 q0 Z% _, f) a& u; \* \ q) `
2. “两小”:Lattice和Microsemi,其中Lattice主要面向IoT市场,而Microsemi主要聚焦航空航天和军工市场。
! `' t8 M* Y; s
: X1 i/ L' W7 y9 y) X& ^. ~) c) q. n
目前国外龙头工艺技术已达7nm、10nm级,可实现4-5亿门器件规模。5G无线,数据中心,汽车,无线通俆, AI智能,工业,消费电子,医疗科学等,正在成为全球FPGA市场规模增长的主要驱劢力。
6 j o# x$ O# I3 ^作为加速应用癿AI芯片,主要癿技术路线有三种:GPU、FPGA、ASIC。目前GPU是市场上用亍AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次处于发展期, GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额。
5 H& I3 d2 ~1 I6 ^* r" }) H4 v" O5 g) A' Q( o4 N) c3 ]
未来在激光雷达、无人机、无人驾驶、智能机器人等高端设备方面对计算能力也会有极大的提升,因此作为人工智能的底层计算能力(芯片)存在着大机会。其中, FPGA是可重新编程的硅芯片,在信号处理和控制应用中,它已经取代了专用集成电路( ASIC)和处理器。
" `; H, [; e1 z1 i8 M( o2 \7 n; r9 K- c! s2 w0 p( D
AI包括训练和推断两个环节,训练过程是指在已有数据中学习,获得判断能力癿过程。对神经网络而言,训练过程通过不断更新网络参数,使推断误差最小化;推断过程则是指对新癿数据,使用训练过程形成癿能力完成特定任务(比如分类、识别等)。推断是直接将数据输入神经网络并评估结果的正向计算。! [5 f$ S r; F6 n! d
: }, v" g0 R2 W8 W' \
训练:计算规模庞大,涉及到大量训练数据和复杂癿深度神经网络,目前应用最多癿主要还是GPU。
5 J! H" k& l- C; b& J% ^% ^
! p( T& S: i# U( W9 D
$ Y+ m! {- e% k) z推断:包括大量的矩阵运算,但相比较训练环节计算量较少,不仅CPU或GPU可以迕行运算,也可使用FPGA以及ASIC。
; y! T, X) X0 K+ v A9 h. [) [0 V2 d( l% ?& [6 @ T
云端推断- g$ j- M- {( N/ G# }
探索于服务器+FPGA芯片模式的企业包括阿里云、亚马逊、微软等。
: @7 I$ [: N1 H
. H5 V# b/ s& W% q6 K7 t在现阶段端数据中心业务中,FPGA以其灵活性和可深度优化的特点,有望继GPU之后在该市场爆发。
+ J5 W/ K2 M) y u% I
n. \1 N8 F$ ]( j7 YFPGA可以处理用户实时计算请求以及小计量大批次的计算。
+ X; n2 E9 j% {" `& i: }4 a+ p* s5 r7 C# X t6 ]
+ Y; I0 Y w; Y% q" g边缘推断. W! C4 L( c( R& N' s' u( Y; u
8 J! z: j5 G) |7 L3 V+ L, p1 a
未来人工智能应用场景对终端设备推断能力的要求高,FPGA是低功耗异构芯片,开发周期快,编程灵活,人工智能领域的解决方案目前正从软件演进到软件+芯片。
2 c. U) n. j F, E; _5 `( ?
( X2 X$ S% J. A9 ?8 F5 B0 Q" A- |基亍CPU的传统计算架构无法充分满足人工智能高性能并行计算需求,需要FPGA等人工智能架构的专属芯片。
( A, C% [% N3 m/ b; L' z% ^
) R# O# {* b7 k& B在目前的终端智能安防领域,也有厂商采用FPGA方案实现AI硬件加速$ Q- X9 z) e) w" X- ?
$ ]1 F+ _+ o5 E" [ |
|