大数据,机器学习,人工智能半栈工程师大数据 爬虫Python AI Sql

AI Winter is coming,不过降降温也挺好

2018-06-01  本文已影响145人  极小光

简评:AI 现在确实有点过热(炒作)而实际应用的还是少,今年也能明显感觉到比去年冷一点。是阶段性还是整体下滑,不确定。

本文仅代表原作者 Piekniewski 观点。

多年来,深度学习一直处于 AI 革命的最前沿,许多人都相信这是我们进入技术奇点的关键。2014、2015、2016 许多大公司大手笔的 AI 项目,把 AI 推向了高峰,比如 AlphaGo,比如特斯拉的自动驾驶。

现在我们已经进入了 2018 年的中段,表面上看,NIPS 会议仍然火的不得了,各种企业的公关稿上全都是 AI 这个词,Elon Musk 仍然让自动驾驶看起来挺有前途的,Google CEO 不断重述着 Andrew NG 的口号:AI 比电还重要。但是以上种种慢慢变得离我们越来越远,最明显的地方就是自动驾驶,这项技术在实际生活中的应用。

Deep Learning 蒙尘
当 ImageNet 技术得到广泛认可和应用后,一大批杰出的研究院积极地推广(甚至包括不爱露面的 Geoff Hinton),他们(Yann Lecun、Andrew、李飞飞等)在社交媒体上发布各种 AI 的内容。总的来说,我们面临着一场变革,一切只会越来越快,然而好几年过去了,这些人的 Twitter 却不再活跃,拿 Andrew Ng 举例:

这是他们天发推的频率

2013 - 每天0.413条推文
2014 - 每天0.605条推文
2015 - 每天0.320条推文
2016 - 每天0.802条推文
2017 - 0.668条推文每天
2018 - 每天推荐0.263条推文(至5月24日)
当然了,有可能是因为喷子太多,让他心灰意冷的缘故。比如下面这种

显然,他们的情绪下降了不少,赞美深度学习是终极算法的推文少了很多,论文正在变得不那么「革命性」。自从 AlphaGo 战胜人类冠军后,DeepMind 好久都没有推出什么新东西。OpenAi 相当安静,他们最近的新闻还是 Dota2 的 AI 强大的学习能力。

事实上,Google 不知道如何处理 DeepMind 了,因为结果不如原先预期的那么实际。其他的高端研究员都忙于和加拿大或者法国官员会面,以确保未来的赠款。Yann Lecun 甚至不再担任 Facebook AI 首席科学家。

这种从富有的大公司离开向政府寻求资助的现象表明,大公司(如 Google 和 Facebook)对研究的兴趣逐渐变冷,当然这些都是早期现象,一切可能还不是那么明显。

深度学习(不成)规模
关于深度学习最重要的口号之一是:超强的扩展能力。我们在 2012 年拥有 6000 M 的 AlexNet 神经网络。那我们现在应该至少拥有了 1000 倍的数据量了。好吧,可能如此,但问题是,AlexNet 的能力随之增长 1000 倍了吗?OpenAI 的研究派上用场:

从图中可以看到,AlexNet 计算量提高 100 倍的情况下,现有的视觉和图像相关的 AI 领域已经饱和。再往上,神经机器翻译是所有大型搜索公司的努力方向,毕竟它需要极为复杂的计算。

该图上的最上面的三点有趣地显示了强化学习相关项目,Deepmind 和 OpenAI 应用于游戏。特别是 AlphaGo Zero 和稍微更通用的 AlphaZero 需要大量计算,但不适用于真实世界的应用程序,因为需要大量计算来模拟和生成这些饥饿的模型所需的数据。好的,现在我们可以在几分钟内培训 AlexNet 而不是几天,但是我们可以在几天内培训一个更大的 AlexNet 1000 倍,并获得质量更好的结果么?

以上种种数据告诉我们某这类型 AI 的天花板,以及并不如我们所想的那样它能够无限扩展。

自动驾驶车祸
到目前为止,深度学习领域最大的打击来自于自动驾驶汽车领域。自 2016 年以来,[图片上传中...(v2-fb390bf33e3ddfd0ac970ed4009ae824_hd.jpg-22be4-1527830541345-0)]
还有数个特斯拉 AutoPilot 的事故[1],其中有些是致命。

可以说,特斯拉的辅助驾驶和真正的自动驾驶不应该混淆,但在核心上它们依赖于同一种技术。截至今天,它仍然不能停在路口,识别交通信号灯,甚至不能自己驶出环形立交。现在是 2018 年 5 月,几个月前马斯克就公布了东西海岸穿越计划,但是现在还没有完成。2 月的时候马斯克面对采访时表示:它需要更多的代码来保证其运转,而且只能运行特定的路线。但是他们的自动驾驶技术正在指数级的发展。

那么,看看上面的图表(来自OpenAI),我们没有看到自动驾驶任何指数级的进展。我觉得马斯克的话可以理解为:我们目前没有可以安全东西穿越的自动驾驶技术,尽管如果我们真的想要(也许......),但我们可以伪造它。我们深深地希望有些神经网络能力的指数级地飞跃,并帮助我们免受耻辱和大规模的诉讼。

但是迄今为止,人工智能泡沫中最大的污点是 Uber 自驾车在亚利桑那州杀撞一名行人事故[2]。从 NTSB 的初步报告中,可以读到一些令人惊讶的发现:

除了本报告中显而易见的一般系统设计失败外,令人惊讶的是系统花费了很长时间来试图确定前面看到的究竟是什么(无论是行人,自行车,车辆还是其他),而不是做出唯一的逻辑决策:在这种情况下,确保如何这是不会触及它。

这有几个原因:首先,人们经常在事情发生后做出他们的决定。所以一个人通常会说:「我看到一个骑车人,所以我转向左边避开他」。

不过大量的心理、物理、认知学文献提出了另外的一个完全不同的解释:人类通过神经系统的快速感知循环很快将其解释为障碍,并且他执行了一个快速行动来避免它,但是因为大多数这些东西都不易表达,所以很难衡量,因此我们根本就没有在这些方面优化我们的机器学习系统......

现在,Nvidia 提出了解决方案学习图像 - >动作映射,直接跳过任何语言表达,在某些方面,这是可行的,但是......问题在于输入空间的维度高得令人难以置信,而动作空间的维度非常低。所以就算这个方案理论上是可行的,但是其计算量之大,准确率还不能够得到有效的保证,要知道哪怕万分之一的几率,事故一旦发生,也会造成非常严重的后果。

Gary Marcus 和他的反炒作

现在很多顶级的学者正在认识到 AI 的问题,并有勇气公开曾经的自负。

Gary Marcus 就是其中之一。尽管我不同意他在人工智能方面提出的所有建议,但我同意他说的「深度学习远没有宣传的那么强大」这个观点。事实上,它里宣传的相去甚远。 Gary Marcus 他有一个很好的播客[3],他非常细致地解构现在深度学习的炒作行为。我很尊敬加里,他的行为应该像一个真正的科学家,而不是那些深度学习 Super Star。

结论

预测 AI 寒冬就像预测股市崩盘,不可能准确地预测出什么时候发生,但几乎可以肯定它会在某个时刻出现。就像在股市崩盘之前,总会有些迹象,但是舆论掩盖着真相,让人们很容易忽视。

在我看来,已经有这样的迹象表明,深度学习的降温已经显现出来了(可能在人工智能方面,由于这个词已被企业宣传所恶心地滥用),而且只会越来越明显。我不知道接下来会发生什么,但降温也不是什么坏事,回归技术的本质,少点浮躁,多点钻研。

注释:
[1] A Tesla Model X caught on fire after crashing into a highway barrier — and Tesla has a theory about why the crash was so bad
[2] Dash-cam video records deadly crash involving self-driving Uber
[3] A Critical Appraisal


原文链接:AI winter is well on its way
推荐阅读:东芝流失的明星工程师,诉说着日本科技行业的没落

上一篇 下一篇

猜你喜欢

热点阅读