从Facebook“失控”AI背后看媒体的哗众取宠
从Facebook“失控”AI背后看媒体的哗众取宠
一大早醒来,朋友圈和各大新闻头条都被一条“Facebook关闭“失控”AI项目 因发展出人类无法理解的语言”的新闻刷屏了!初看这个标题,不禁心里抖了下,难道电影《终结者》里的初代天网诞生了?难道人类真的创造出独立思考的人工智能,成为造物主了?难道真的如同特斯拉CEO马斯克所言,研发AI是人类在打开地狱之门,人类终将会被灭绝,成为过去时?
带着满心的忐忑,笔者仔细阅读了这篇文章。文章来自TechWeb,文中提及人工智能创造出了人类难以理解的独特语言,但从AI 智能体的角度上看,他们实际上是有词义意义的,于是科研人员不得不拔掉电源插头。文章极力给读者塑造的印象是:人工智能有了独立的思维,背着人类“悄悄交流”,具有很大风险,人类无法应对,只能采取最消极的‘拔掉电源插头’!但是具体情况是怎样呢,文章并没有给出交代。
从Facebook“失控”AI背后看媒体的哗众取宠
本着对事物科学严谨的态度,笔者就此事件进行了深入的了解,查询了大量国内外新闻,原来事情并不如同TechWeb报道的一样,文中诸多描述涉嫌夸大其词,误导读者。那么具体情况是怎么样呢,下面笔者就带大家全面了解此次事件!
Facebook的人工智能研究院 (FAIR) 想要训练一个聊天机器人,让它学会谈判。于是他们用了一个叫做“生成式对抗网络”(Generative Adversarial Networks),简称 GAN的神经网络结构来开发这个系统。GAN 是一种在目前非常先进的神经网络结构,在这个系统中,人工智能可以通过对方相互学习,交流的越多、时间越长,AI的水平会越来越高。
研究人员让聊天机器人带着“目的”和人类对话。而这个目的也很简单:一共有两本书,一顶帽子和三个篮球,三样东西分别设定了不同的权重,为的是让机器人明白它到底对这些东西有多想要,然后去和人谈判。
下面的对话就发生在聊天机器人 Alice 和 Bob 之间:
从Facebook“失控”AI背后看媒体的哗众取宠上面对话给人的感觉就是人工智能卡壳了,一直在重复同一个词,或者是中病毒了,显示出现了乱码?
要明白上述问题,首先要知道,神经网络是个程序,里面有一大堆各种线性的数学公式。但有时候线性的公式无法取得想要的结果,有些非线性的需求没法用线性公式表达出来,这时候就要设定一个激励函数。激励这件事对于神经网络,简单来说就是告诉神经网络“这样做得分更高,更容易成功”。而Facebook的研究人员在把这两个聊天机器人拼到一起时,却忘了给神经网络设定“用英语沟通”的激励。
“坚持用英语说话没有激励,于是机器人发明一些它们之间才能理解的句法”这也解释 Alice 和 Bob 奇怪的对话。
而且他们的对话真的算是人类看不懂的新语言吗?
Bob: I can i i everything else
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else
Alice: balls have a ball to me to me to me to me to me to me to me to me
如果弄明白了前面描述的试验目的,很容易就能明白其中的语义,一句话里 to me 重复的越多,这个东西对它的意义越大。
翻译过来就是:
Bob:我可以我任何其他(其他任何东西都可以给你)
Alice:球有0对我对我对我对我对我对我对我对我(我没有球,球对我特别特别特别特别特别特别特别特别重要)
Bob:你我任何其他(你可以拿走其他任何东西)
Alice:球有球对我对我对我对我对我对我对我对我(我要球,球对我特别特别特别特别特别特别特别特别重要)
难理解吗?
而且,Facebook并没有“关掉”这个系统,而是重新设定了正确的激励,修正了机器人的行为,让机器人用标准的英文语法来进行交流。修正的原因也不是因为害怕 AI 失控——他们的目标是让机器人和人聊天(和Facebook用户沟通),而在不修正的情况下显然是达不到这个目的。
其实有关Facebook人工智能的“失控”早在一个月前就有相关媒体报道过,文中就AI的“失控”事件、原因都进行了详细的分析和总结,但文章却并没有火起来。那为什么还是一样的原料,还是一样的配方,40天后这个话题又再次火起来了呢?
从Facebook“失控”AI背后看媒体的哗众取宠看到两篇文章的标题,笔者不得不对TechWeb作者起标题的能力竖个大拇指!标题能力真乃我辈楷模!上面的兄弟你可长点心吧,就你这标题,你怎么火?就问你,你怎么火?至于内容,写什么两面性,说了,写什么两面性,读者喜欢什么写什么,什么吸引读者写什么! 什么?你和我说这是新闻,得全面分析?得客观?大叔,都什么年代了,我只要火,我只要上头条,其它关我什么事 ?!
说到这里又想到了苹果下架数万app事件,当时苹果因为应用内30%收费一度被推上风口浪尖,紧跟着6月份大量下架中国app,国内大量媒体一度以“苹果向中国宣战”“恃宠而骄”“微信苹果二选一”等为标题,从而博取读者眼球,争取流量最大化。这和此次“AI失控”的事件何其相似,两者都是抓住了读者的心理,利用读者对苹果的怨言和对AI的恐惧,对事件进行不客观的单方面报道,从而达到哗众取宠的目的。
AI超出人类的控制,Facebook聊天机器人并不是第一次。微软去年在 Twitter 上推出的聊天机器人Tay,仅上线一天,Tay 就开始有一些种族歧视之类的偏激言论。Tay 的设计原理是从对话交互中进行学习。于是一些网友开始和 Tay 说一些偏激的言论,刻意引导她模仿。人工智能没有分辨是非的能力,在网络暴民的一次蓄意教唆下,Tay 一步步被教唆成一个满口脏话、集反犹太人、性别歧视、种族歧视等多种情绪于一身的反社会机器人。
而后的事大家也都知道了,微软不得不紧急关闭了 Tay 的 Twitter 账号,亲手“杀死”了她。媒体大篇幅报道人工智能潜在的危险,进一步加深了普通人对人工智能的误解。这件事中,我看到的不是关于人工智能的危险,而是潜藏在人类心中的黑暗,是网络暴民的狂欢!
最后,笔者想说,AI从一开始就不是个不谙世事的婴儿,它数据库中是全世界数十年积累的信息,有黑有白,有善有恶。它不需要才华,不用休息,只要有足够多的数据,就能学会。但 AI 缺少是非分辨能力,它学习的环境、对象不由自己决定,很容易被人误导,从而对社会造成影响。
但是就目前而言,人工智能还处于很初级的阶段,我们现在应该做的是:建立完善的规则和制度去规范人工智能的发展,更好的为人类服务;而不是杞人忧天,整天想着人工智能毁灭世界。同时,笔者也想对那些听风就是雨的媒体人说句,“都互联网时代了,别把谁当傻子,哗众取宠最终受害的只能是你们自己”!
最后的最后,送大家个小故事:(细思极恐)
“教授,我做了个肯定能通关‘不思议迷宫’的AI”
“那很厉害呀,继续加油”
“可它居然失败了”
“……”