人工智能

《人工智能芯片的现状与未来》王煜全 2017.02.13

2017-02-20  本文已影响281人  RoFF

转载自得到APP-王煜全-前哨观察团

发展人工智能芯片的原因

传统计算架构无法满足人工智能需求:传统计算架构是串行处理;但人工智能模仿大脑结构(深度神经网络),是超低能耗的并行处理结构,对于上亿次的并行,传统的串行计算结构无法完成。

目前的调整方式

CPU加异构计算:核心部分采用传统CPU(串行处理结构),将可重复的简单计算分离出来,采用并行处理结构。

异构计算部分,全球目前有以下几种类型:

例如谷歌AlphaGo战胜李世石;与此同时,CPU数量也需要增大且具有一定的并行能力,例如因特尔提出的MIC(Many Integrated Core)多个集成核心,但它依然只是一个相对简单的中央处理程序。

GPU的主要提供者是Nvidia和AMD,AMD推出了一个领先世界的框架——APU,将CPU和GPU整合到一个芯片上。

例如大疆无人机采用了Lattice公司提供的FPGA。
FPGA的主要提供者是Xilinx、Altera、Lattice。

这个模式更加专业化。

ASIC的主要提供者是Movidius和创业公司Nervana,Movidius提出了VPU(Visual Processor Unit),专做视觉处理。

ASIC是专为人工智能设计的集成电路芯片,比FPGA效率高、省电,更适合服务于人工智能应用或其他特定用途。例如Mobileye现在的目标是打造出专为自动驾驶使用的人工智能芯片;谷歌做AlphaGo,开发出TPU(Tensor Processing Unit),和它的TensorFlow人工智能算法相匹配,使算法最优化。

更适合处理流媒体信号,例如TI、Freescale、CEVA。
DSP的主要提供者:CEVA是领军企业。

将来的发展趋势

例如谷歌的TPU,Nvidia的Tesla,Wave Computing,Kneron,中国的寒武纪、地平线机器人。

未来Neuromorphic Cumputing模式会打破异构计算的垄断,它由加州理工的Carver Mead教授提出,现在的主要研发者是IBM和高通,还有海银资本投资的Neurala。

Neuromorphic Cumputing的设计思路是去掉了CPU部分,核心处理部分完全改为并行结构。随着对大脑的认识进步、计算机研究进步,形成了更加类脑的计算能力Neuromorphic。

目前,IBM推出TrueNorth,模仿并逐渐接近大脑神经元的特征,实现多点对多点的彼此通信。芯片并没有采用传统的冯诺依曼结构,而是把内存处理器单元和通信部件完全集成在一起,因此信息的处理完全在本地进行;由于本地处理的数据量不大,传统计算机内存与CPU之间的瓶颈不复存在;同时神经元之间可以方便地相互沟通,实现事件驱动的异步电路特征;该芯片功耗极低。

发展神经网络芯片的原因

我认为,下一阶段随着人工智能的普及化,计算能力又会向手持终端偏移。未来的计算能力发展,终端与网络侧将呈此消彼长的态势,互相促进发展。

创业者的窘迫与出路

人工智能芯片领域,看似蓝海,但实际要比拼科技水平、资金实力、产业协调能力,对初创公司来说困难重重。

总结

我认为,2017年人工智能芯片会得到持续关注,创业者如果能够和应用相结合,做专用性更强的人工智能芯片开发,将有机会突出重围。

以上是人工智能芯片相关内容的上半部分,我们对人工智能芯片市场做了总的回顾,明天的下半部分将为大家介绍在人工智能芯片领域的领导性企业。欢迎大家持续关注。

上一篇下一篇

猜你喜欢

热点阅读