埃隆•马斯克:AI比核弹更可怕,你会面对永生的独裁者
“如今,生命最大的悲哀莫过于科学汇聚知识的速度快于社会汇聚智慧的速度。”
——艾萨克·阿西莫夫
1.
2018年刚过去了一半不到,科技就已经给我们闯下了不少祸。三月,Facebook被曝出数据泄露事故,8700万用户受到影响。你以为被泄露的信息,只是让你遭到垃圾广告的轰炸而已吗?
你想的太少了。
和以往的个人信息泄露事故不一样的是,被剑桥分析公司获取的信息,能够刻画出你的心理特征。进而向你推送有特定政治倾向的新闻、广告。从而左右你的行为与选择。
是的。你的想法,你投出的选票,都可能是被人用数据控制的。
3月份的时候,微博话题#大数据杀熟#被迅速引爆。网友纷纷晒出自己被宰的“实锤”。购物、旅行、打车、订房……这一事件至今还未平息。大数据,用作价格歧视的工具,竟是如此便利。
科技公司通过技术和网络垄断地位,让我们成为了信息孤岛上逆来顺受的难民。
3月18日,Uber自动驾驶汽车发生致命事故,当时汽车正处于自动驾驶模式。
随后,3月23日,Tesla的Autopilot半自动驾驶系统又导致了另一场车祸,系统未能识别岔路口的障碍物。接二连三闯祸的自动驾驶事故,仅仅是技术问题吗?
法国图卢兹经济学院的Jean-Francois Bonnefon团队提出过这样一个问题:如果你正在乘坐的自动驾驶汽车冲向人群,刹车已坏,自动驾驶应该选择撞墙丢掉你的性命还是人群的?
这个问题,折射出自动驾驶技术所面临的,根本上的伦理困境。
无人驾驶技术面临的,既有技术的挑战,也有来自伦理的挑战。在我们不曾对这个问题深入了解思考的时候,技术的实用化带给我们的是整个社会环境的新威胁。
这些事件绝非都是孤立的。技术愈发复杂,其中的风险也就会指数级增长。在媒体的哗众取宠,在我们的无知掩盖下,我们忘记了更加可怕的威胁——人工智能
2.
我们需要对AI保持谨慎。它们可能比核武器还要危险。
——埃隆·马斯克 2014年8月的一条推特
波兰作家米沃什在《被禁锢的头脑》中写道:“许多欧洲国家的居民直到20世纪中叶才痛苦地意识到,复杂而又晦涩难懂的哲学著作对他们的命运有着直接的影响。就像他们所说的那样,他们自己吃的每份面包,他们的工作性质,他们自己和他们的家庭生活,都有赖于对某些原则争论的这样或那样的解决方式而此前,他们对这些原则从未注意过。”
21世纪的我们,是否应该把文本中的“哲学著作”再加上技术。
而我们是否也会到了某一天,才会“痛苦的意识到”这一切?
在4月上线的纪录片《你信任这台电脑吗?》中,马斯克这样说:
“在人工智能时代,我们可以创造出’永恒的独裁者’。”他提到了一个可怕的可能性:威权政府建立的AI可以超越个别领导人或政党,创造一个永久的压迫结构。
“如果人工智能有一个目标,并且人类碰巧阻碍了它,它甚至不用考虑就会摧毁人类,没有任何困难。”马斯克说,就好像,如果我们正在建造一条道路,并且一个蚂蚁碰巧阻碍了我们。”
“你会有一位永生的独裁者。”
你觉得这是危言耸听,觉得这只是个科幻题材的故事,那只能说,你远远低估了技术进步的速度。这部记录篇在国内也引发了热烈讨论,虽然不少人认为,这是钢铁侠的又一次炒作,一种危言耸听。但不少人,是这样回答的。
庆幸的是,聪明人已经醒了过来,开始说话了。
3.
这是最好的时代,也是最坏的时代
——狄更斯《双城记》
AI会带给我们怎样的未来?在科幻小说家眼里,这是个悲观的事情。极权,阶级固化……因为技术,这些离我们前所未有的近。
在去年硅谷引发热议的新书《生命3.0》中,MIT终身教授泰格马克描述了12种潜在的未来,“极权2.0”便是一种。
过去,极权主义国家通常被证明是极不稳定的,最后都走向了崩溃。但新型的监控技术为未来的独裁者提供了前所未有的希望。
沃尔夫冈•施密特(Wolfgang Schmidt)最近在接受采访时回忆起自己曾在斯塔西(臭名昭著的原东德秘密警察组织)担任陆军中校,他谈到了斯诺登揭发的NSA(美国国家安全局)监控系统,说:“你知道,这对于我们来说简直无异于梦想成真。”
虽然斯塔西常被认为是人类历史上最为严酷的奥威尔式监控体系,但施密特却感叹道,当时的技术只能一次性监控40部电话。如果你想在监控列表上增加一个新名字,就得放弃一个旧的。
相比之下,即便只使用现存的技术,一个全球极权主义国家也能监控地球上每个人的每次电话、电子邮件、网络搜索、网页浏览和信用卡交易,并通过手机定位和配有人脸识别的监控摄像头来监控每个人的行踪。
此外,即便是远低于人类水平AGI的机器学习技术也可以高效地分析和处理这些庞大的数据,从而发现扰乱治安的可疑行为,让那些闹事者在对政府构成严重威胁之前就被处理掉。
4.
科技正在让生活前所未有地快速前进……或是毁灭,我们应该将未来把握在自己手中!
——迈克斯·泰格马克,MIT物理学终身教授
我们无法叫醒装睡的,但醒来的人却已经开始了行动。
2014年,MIT教授迈克斯·泰格马克便开始致力于让AI安全研究进入主流,并与让·塔林(skype创始人)、埃隆·马斯克、斯蒂芬·霍金等人创办“未来生命研究所”。
最初,他们用文章来打响第一枪,让媒体、大众注意到问题的严重性。
随后,在2015年,在泰格马克的筹划下,波多黎各大会召开。Deepmind创始人丹尼尔·哈萨比斯、“奇点”这个词的提出者弗诺·文奇以及众多世界顶级的学者、专家参与其中。这次会议中有两件事情格外重要。
一个是关于AI研究安全性的公开信。这封信收获了霍金、马斯克在内的8000位研究者的签字。
另外一个是,未来生命研究所开放了研究资助金申请通道,收到了全球300个团队的申请。
2017年的阿西洛马大会,将这场运动推向了高潮。
阿西洛马大会的合影,也是AI有益运动的“群英谱”,你可以在里面找到拉里·佩奇、埃里克•施密特这些企业家,吴恩达、丹米斯•哈萨比斯这样的技术专家,以及丹尼尔·卡尼曼这样的来自心理学、经济学、社会学方面的顶级专家。DeepMind、谷歌、Facebook、苹果、IBM、微软和百度等公司的代表悉数到场。而大会最了不起的成果,当属阿西洛马原则。这份原则可以看做是“AI有益运动”的纲领性文件,涵盖了研究问题、伦理与价值以及所面临的长期问题。这份原则已经获得超过千名AI研究者和许多顶级思想家签名,其影响也在不断酝酿和发酵。你可以在网站上看到它的完整版本。
https://futureoflife.org/ai-principles-chinese/
“AI有益运动”的影响从未止息,各国政府纷纷意识到AI安全性的重要,并相继发表重要报告。
“AI有益”运动页面与此同时,企业界也行动起来,亚马逊、DeepMind、Facebook、谷歌、IBM和微软发起了一个“有益AI”的行业伙伴关系。
与国外高涨的热情相反,国内倒是颇为冷静。毕竟,某位互联网高层这样说:
“我们的用户愿意牺牲隐私来获得便利。”
5.
技术,尤其是关乎人类福祉的重大变革,也应当让所有人和知悉、思考与讨论。
MIT终身教授泰格马克在新书《生命3.0》中写道,我们对人工智能的威胁存在两种误区。其中之一是,比人类更聪明的人工智能在21世纪不会诞生。在一次针对研究者和科技企业的调研中,很多人认为在2055年前后,这样的超级智能就会诞生。
而另一种误区在于,人工智能和电脑一样,不过是我们的一种工具。而实际上,人工智能的真正能力在于决策,倘若它的目标和我们出现了偏差,我们很有可能会失去控制权。人们在建造水电站大坝时,根本不会考虑会淹没多少蚁丘。而人工智能将可能让人类尝到蚂蚁的滋味。
本书英文版封面,中文版将于7月份由湛庐文化出版这本书同时收获了《自然》《科学》两大权威学术期刊的肯定,今年七月就会在国内出版。如果你愿意关心人类与人工智能的未来,可以读一读这本书。
虽然我们的未来,仍将面临前所未有的风险性。但所幸的是,前路随漫漫,已经有人在开拓更光明的道路。希望我们能与智慧同行。