全世界都在说AI芯片,其实你根本就不了解AI芯片!
人工智能(AI)的爆炸性使用正在开启半导体设备的新时代,这将带来许多新的机遇,但也带来许多挑战。
IBM研究部高级副总裁John E. Kelly博士谈到人工智能将如何大幅改变世界。 “这是一个计算时代,其规模将使之前的时代相形见绌,其方式将改变我们所有的业务和所有行业,以及我们所有的生活,”他说。 “这是推动我们半导体产业向前发展的时代。机会的数量是巨大的。“
Applied Materials 首席执行官Gary Dickerson在活动上发言时表示,AI“需要在边缘和云端创新,在边缘生成数据,存储数据,处理数据以释放价值。与此同时,摩尔定律正在放缓。“这创造了”完美的机会“,他说。
SEMI总裁兼首席执行官Ajit Manocha称其为半导体行业的“重生”。 “人工智能正在改变一切 - 并将半导体带回当之无愧的聚光灯下,”他在最近的一篇文章中指出。“AI的数百个zettabytes和数万亿美元的潜在市场依赖于新的半导体架构和计算平台。 制造这些AI半导体引擎需要大量创新的新材料,设备和设计方法。“
“硬件再次变得重要,”迪克森说。 “在过去的18个月中,芯片初创公司的资金比前18年增加了。”除了来自英特尔和高通等传统IC公司的AI芯片外,还有超过45家初创公司正致力于开发新的AI芯片。风险投资超过15亿美元 - 其中至少有5个投资者筹集了超过1亿美元。谷歌,Facebook,微软,亚马逊,百度和阿里巴巴等科技巨头也在开发AI芯片。
迪克森表示,拥有比其他任何人早12个月获胜的AI芯片可能是一个1000亿美元的机会。 “我们在应用材料公司内部推动的是速度和上市时间。什么是一个月的价值?一分钟值多少钱?“
IBM的Kelly表示,在现有的15亿至20亿美元的信息技术产业之上,人工智能有2万亿美元的决策支持机会。 “从字面上看,世界上每个行业都会受到这种影响和改变,”他说。
AI需要分析非结构化数据
去年年底在国际电子器件会议期间应用材料展览会上,IBM研究院副院长兼Almaden实验室主任Jeff Welser博士表示,人工智能的爆炸式增长是由需要处理大量非结构化数据所驱动的。 ,注意到在短短两天内,我们现在产生的数据与2003年总产生的数据一样多。“在2020年左右,估计可能产生50个zettabytes的数据。这是21个零,“他说。
Welser将于5月份在ConFab 2019上发表主题演讲,他指出,80%的数据都是非结构化的,并且增长率是结构化数据的15倍。 “如果你看一下增长情况,它实际上就是一种完全不同类型的数据。语音数据,社交媒体数据,包括很多图像,视频,音频和文本,但非常非结构化的文本,“他说。然后是IoT连接传感器的数据。
有各种方法来处理这些数据。 CPU对于结构化的浮点数据非常有效,而GPU在AI应用程序中运行良好 - 但这并不意味着人们不会将AI用于传统的CPU。今年8月,英特尔称其在2017年销售了10亿美元的人工智能处理器芯片。
据路透社报道,其数据中心主管Navin Shenoy表示,该公司已经能够修改其CPU,在人工智能培训方面的性能提高200多倍。过去几年。这导致其Xeon处理器在2017年的销售额达到10亿美元,当时该公司的总收入为628亿美元。英特尔人工智能产品部门负责人Naveen Rao表示,这10亿美元的估算来自于那些告诉英特尔他们正在购买人工智能芯片以及计算客户数据中心专用于此类工作的客户。
AI的定制硬件并不新鲜。 “即使早在90年代,他们就开始使用ASICS和FPGA,试图找到更好地做到这一点的方法,”Welser说。例如,2016年推出的Google张量处理单元(TPU)是专为机器学习应用而构建的定制ASIC芯片,使芯片能够更加容忍降低的计算精度,这意味着每次操作需要更少的晶体管。
真的是当GPU出现在2008-2009时期,人们意识到除了预期的应用程序 - 图形处理 - 它们真的很适合做神经网络所需的那种数学运算。 “从那时起,我们已经看到了一大堆不同的架构,试图继续提高我们运行神经网络进行训练和推理的能力,”他说。
AI首先“训练”一个神经网络,其中权重根据输出而改变,然后是“推理”方面,其中权重是固定的。这可能意味着需要两种不同类型的芯片。 “如果你没有尝试学习它,你可能会得到一些功率低得多,速度更快,效率更高的东西,当你已经训练好的神经网络并运行它用于任何应用程序时。对于我们看到硬件的发展方向而言,这变得非常重要,“他说。
当今技术的问题 - 无论是CPU,GPU,ASIC还是FPGA--在处理能力和现有技术之间仍存在巨大差距。
例如,谷歌发布自己的TPU以及Edge TPU——TPU是针对TensorFlow上的机器学习工作负载量身定制的定制应用专用集成电路(ASIC)。 去年,谷歌宣称它的TPU比现代GPU和推理CPU快15到30倍,并且TOPS / Watt测量值提高了30-80倍。并且谷歌在同年还发布了用于边缘计算的Edge TPU,以及相关设备:AIY Projects Edge TPU Dev Board和Edge TPU Accelerator 围绕谷歌新推出的专用边缘TPU。
为了达到性能/瓦特的新水平,在AI芯片级别研究的创新包括:
低精度计算
模拟计算
电阻计算
在一项研究中,IBM人为地降低了神经网络的精度,结果令人惊讶。 “我们发现我们可以将浮点数降低到14位,我们确实获得了与16位或32位或64位完全相同的精度,”Welser说。 “那时候并不重要。”
这意味着神经网络的某些部分可能具有高精度,而某些部分则具有低精度。 “你可以在那里做出许多权衡,通过放弃精确度,可以降低功率或提高性能,”Welser说。
老式模拟计算具有更低的精度,但可能非常适合AI。 “模拟计算在当时非常有效,只是你不能控制错误或以任何有意义的方式扩展它,如果你试图做高精度浮点,”Welser说。 “但是,如果你真正想要的是拥有可变连接的能力,比如神经元,那么也许你可以使用模拟设备。”