人工智能芯片热度渐升,IP授权才是最佳出路?

镁客网 中字

人工智能芯片热度渐升,IP授权才是最佳出路?

人工智能加速,人工智能专用芯片是未来趋势

深度学习算法是实现人工智能技术和应用的核心,其在运行过程中需要对海量的数据进行运算处理——用已有的样本数据去训练人工神经网络、用训练好的人工神经网络去运算其他数据。对于传统计算架构而言,这将是一个极大的挑战。

面对深度学习算法这一计算新需求,GPU(图形处理器)、FPGA(可编程门阵列)、ASIC(专用集成电路)等成为了人工智能芯片领域的“被追捧者”。比如GPU,相比于CPU,其具有高并行结构,拥有更多的ALU(Arithmetic Logic Unit,逻辑运算单元)用于数据处理,适合对密集型数据进行并行处理。

值得我们注意的事,不管是让英伟达一举闻名的GPU,抑或是当前与GPU不分伯仲的FPGA,在属性上,它们都只能算是人工智能通用芯片。相比于一开始就是“私人订制”的ASIC,在深度学习算法的运行上,GPU和FPGA或多或少都有着一些局限:

GPU局限:GPU能够游刃有余的训练人工神经网络,但在输出应用时,它一次只能处理一张图像;相比于FPGA的灵活,GPU硬件结构固定,不具备可调整性;在实现相同性能的功耗上,GPU远大于FPGA以及ASIC。

FPGA局限:为了实现可重构特性,FPGA内部有大量极细粒度的基本单元,但是每个单元的计算能力都远远低于GPU中的ALU模块;在深度学习算法的运行速度和功耗上,FPGA表现的都不如ASIC;FPGA价格较为昂贵,在某些情况下甚至会高于ASIC。

人工智能芯片热度渐升,IP授权才是最佳出路?

不可否认,对于当前人工智能的发展,GPU和FPGA都做出了不小的贡献,但是从未来发展趋势来看,人工智能专用芯片才是未来的核心。

从上面的一些比较我们可以看出,在功耗和速度上,GPU、FPGA与ASIC之间还是有着一定差距的。

针对人工智能芯片的通用与专用的区别,地平线机器人芯片专家马凤翔称,相比于通用芯片,专用芯片是为特定场景而定制的,具备低功耗、低成本、高性能的优势。再通俗一点讲,就如寒武纪创始人之一的陈云霁所举出的例子,普通的处理器就好比“瑞士军刀”,虽然通用,但不专业,造成浪费,但是做菜的时候,还是菜刀得心应手,而专业的深度学习处理器就是这把更高效、更快捷的“菜刀”。

与此同时,不仅仅是性能的要求,随着人工智能技术的发展,其应用范围也将进一步扩大。未来,自动驾驶、机器人、智能家居等等终将充斥我们的生活,这其中所隐藏的将是一个无可估量的市场需求。届时,不管是所需要处理的数据,抑或是运算速度,与现在相比都将不是一个量级,若想做的更好,就只能向人工智能专用芯片靠拢。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存