人工智能有局限性,人类放松些
近些年不景气的经济助推太多关于AI人工智能取代人类的工作的焦虑文章。尤其是深度学习算法几乎被吹捧为可以像人类一样的自我学习、成长,直到取代人类,成为超级智能物种。类似文章以焦虑为卖点常有可观的阅读量。
在2018年也读过几篇,会想起庄子的“人力有时而穷”的感叹。虽然认为从基本逻辑上来讲,人类自己都没研究清楚人类大脑的很多机能,没有可能创造出超越自我的智能,但供应链的工科生不是专业程序猿,也不敢妄断。最近读了《连线》的一片文章,顶级科学家谈关于机器学习的困境,真是让我放心了(此处省略幸灾乐祸的笑容)。
机器学习的困境
机器学习的本质是教计算机程序像人一样,然而越来越多的专业人士认识到,如果想用人工智能来助力公司资产的价值,当下最该做的是教计算机程序像其他机器一样工作。这篇文章比我之前的评论文章《纽约时报:机器人或员工培训 ? 纠结的到底是什么?》里,机器人厂商找不到足够的合格工人去完成机器人的生产订单的尴尬案例,从另一个角度更加系统的介绍了机器的局限性。
纽约的神经科学教授,48岁的马库斯,可能是最著名的正统深层学习的背叛者。他在20世纪80年代和90年代开始对人工智能的研究。那时神经网络还处于实验阶段,深层学习的策略和今天一样。比如说你想要一台机器教会自己识别雏菊:首先,您要编写一些算法“神经元”,将它们一层一层的分层地连接;在第一层显示雏菊的图像,它的神经元会根据图像是否像它以前见过的雏菊的例子而触发或不触发;该信号将移动到下一层,在那里将重复该过程。
起初,神经网络只是盲目地猜测,通过建立一个有用的反馈回路,每当人工智能错过雏菊,那组神经连接就会削弱导致错误猜测的链接;如果成功了,就会加强这些链接。给定足够的时间和足够的雏菊,神经网络将变得更加精确。深度学习这个核心思想——从一个天真的网络开始,通过重复进行训练——得到了改进,然后在任何应用它的地方都显得有用。
但虽然研究的深入,马库斯指出,尽管人们认为神经网络具有头脑,但它们似乎并不像人脑那样工作。首先,他们太需要数据了。在大多数情况下,每个神经网络需要数千或数百万个例子来学习。更糟糕的是,每次你想让神经网络识别一种新类型的物品,你必须从头开始。训练好的识别金丝雀的神经网络,在识别鸟鸣或或其它物种语言方面没有任何用处。
而人类天生就具有学习、掌握语言和解释物质世界的天赋,不需要大量的数据来学习。马库斯说,孩子们在认识汽车之前不需要看上百万辆车。更妙的是,孩子能够概括起来,当第一次看到拖拉机时,孩子会理解它就像一辆汽车。马库斯认为如果没有一些新的方法,深度学习可能永远无法克服目前的局限性。
常识与视觉
人们提起人工智能时,总会想起两个具有传奇色彩的时刻:1997年IBM的深蓝队击败国际象棋大师加里·卡斯帕罗夫,以及2017世界顶尖的围棋选手被谷歌DeepMind的阿尔法击败。每一次机器的胜出在全世界范围内成为头条新闻,冲击人们的认知。无数文学和电影作品受此启发,不断演绎着人类被机器人统治的故事。
Etzioni是西雅图人工智能研究所的一名计算机科学家,他的团队正在研究常识问题。他开玩笑说:“我们有一个下棋的超人,但当房间着火时,人类会拉响警报并向门口跑去”。换言之,人类拥有对世界(燃烧的东西)的知识基础,同时具备推理的能力(远离失控的火)。为了让人工智能真正像人一样思考,我们需要教它人人都知道的东西,比如物理学(扔在空中的球会掉下来)或事物的相对大小(大象不能放入浴缸)。直到AI拥有这些基本概念,它才能够推理。
Etzioni和他的团队正试图开发一层常识推理,他们面临的第一个问题是回答一个基本的问题:什么是常识?
常识被描述为人们认为理所当然,很少需要陈述的关于世界的所有知识。Etzioni和他的同事们已经创建了一组基准问题,一个真正有理智的人工智能应该能够回答:如果我把我的袜子放进抽屉里,它们明天还会在那里吗?如果我踩到某人的脚趾,他们会生气吗?
另一个挑战是视觉推理,研究所的科学家建造了类似模拟人生活的房子,里面装满了日常用品和橱柜、盘子、沙发,这些东西可以推来推去。然后他们设计了机器人,看起来像一个深灰色的带有手臂的垃圾筒。指令这个机器人去搜寻某些物品,在几千个任务之后,神经网络在现实生活中获得了些微的基础。
Etzioni和他的同事们希望这些语言推理,视觉思维,能让人工智能掌握常识,但是需要多长时间,最终产品是什么样子的?他们也不知道。在训练各种语言分析AI时,需要大约100万的语句。建立常识,似乎很难。
科学家说:“如果你观察一下动物和婴儿是如何学习的,会发现在生命的最初几分钟、几个小时、几天里,有很多东西似乎学习得如此之快,以至于它们看起来是天生的。”
DeepMind的两名研究人员最近创建了一个混合系统——部分深度学习,部分更传统的技术——称为归纳逻辑编程。其目标是产生能够进行数学推理的东西。人工智能在深度学习的世界已经变得不时髦了。这在一定程度上是因为它可能是“脆弱的”,如果没有正确的世界规则,人工智能会变得非常混乱。
科学家们真正担心的是当前的人工智能非常无能,一个“笨拙的人工智能附带致命武器可以轻易杀死无数人”。这也是为什么Etzioni 如此坚持的研究要给AI一些常识。比如,人类不应该被大规模屠杀的想法,就是常识知识本身。当然,也有极端的自然保护主义者,认为人类是地球的病毒。这类人如果和“笨拙的人工智能”混在一起.....那就听天由命吧。
2019年也许有康波周期的预言,既然连人工智能都碰上了学习困境,我们也放松些吧,毕竟都快过年了,而且还是猪年呢。先向猪学习吧,祝小伙伴们吃的香、睡的香。