对话这个时代最伟大的命题:AI将会如何改变生命的未来?
来源:量子互联网读书(ID: quantareading)
2017年,未来生命研究所做了一次调查,大多数的科学家认为,通用人工智能的临界点会提前到2047年到来,这和雷·库兹韦尔预测的2045年不谋而合。如果真是这样子,留给我们思考未来的时间其实已经不多。
通用人工智能的缩写是AGI,它是指可以和人类智能比拟的人工智能。这门技术和以往的科技不一样,它不仅仅会改变人类社会,而且很有可能会改变人类生命的本身,科幻作品《黑客帝国》、《神经漫游者》和《西部世界》里面的种种恐怕在未来一百年甚至几十年内就会成为现实,这就促使越来越多的人开始思考:AI将会如何改变生命的未来?
麻省理工学院物理系终身教授、畅销书《穿越平行宇宙》的作者迈克斯·泰格马克,就是这些思考者中的佼佼者。2014年,他成立了未来生命研究所,致力于研究如何让AI朝着对人类有益的方向发展,并在2015年获得了特斯拉的创始人埃隆·马斯克一千万美元的捐赠。
迈克斯·泰格马克同年,未来生命研究所就发布了阿西洛马人工智能原则,受到了1000多名人工智能研究者和2000多名科学家和企业家的署名支持,推动了人工智能安全性研究进入主流研究者的视野。在这种背景下,作者写了《生命3.0》这本书,希望以物理学、生物学和计算机科学的跨界视角,把更多的人带入这个时代最伟大的命题。在讨论这个命题之前,我们先来明确两个概念。
什么是生命
“什么是生命”是一个很古老的问题,曾经有无数的先哲试图给出标准答案,然而,到了今天,还是没有一个令所有人信服的答案。这本书给出了一个广义的定义:生命是一个能自我复制的复杂信息处理系统,它处理的这些信息决定了它的行为和硬件蓝图。而生命能否自我设计自己的软件和硬件又决定了系统的复杂度。
作者根据其自我设计能力,把生命划分为3个版本:生命1.0是系统的硬件和软件都来自大自然进化的简单生物阶段;生命2.0是系统能够通过学习,自己设计软件的文化阶段;生命3.0是自己既可以设计自己的软件,也能设计自己的硬件,从而主宰自我命运的科技阶段。
细菌就是生命1.0的生物阶段。现在很多细菌都有两个重要的器官,糖感应器和鞭毛,糖感应器是细菌用来测量周围液体中的糖浓度,鞭毛是一种形状很像螺旋桨的结构,用来游泳和改变方向,当细菌感应到糖的浓度比前几秒降低时,就会改变方向,游向别的地方,这是一个简单的寻糖算法。但是这个寻糖算法并不是一个细菌在它的一生中学会的,而是经过了无数代的DNA突变,长时间的达尔文进化才出现的。
人类属于生命2.0的文化阶段,我们的硬件,也就是身体,是进化得来的,但是大部分的软件却是通过学习得来的。比如你识别某人是不是你朋友的能力,到你行走、阅读、写作、计算、唱歌以及讲笑话的能力。刚出生时,你是无法完成这些任务的,所有的这些算法和知识都是你后来通过学习能力得到的。
而生命3.0就是这本书主要要讨论的未来生命,这也是这本书的书名来源。生命3.0意味着生命不仅能设计自己的软件,还能设计自己的硬件,完全脱离进化的束缚,也就是说未来的生命不一定是碳基生物,还可能是硅基生物,或者碳基和硅基的结合体。在这里,生命的形态发生了巨大的变化,生命可能会脱离自己的血肉之躯而存在!就好像《西部世界》中那些机器人招待员,不但可以对它的智能系统进行更新迭代,还能随意地更换身体。
这时候,智能就是生命3.0。
《西部世界》剧照什么是智能
那么,什么是智能?这是一个连人工智能研究者都无法达成一致的概念,有很多不同的定义:逻辑能力、理解能力、计划能力、情感知识、自我意识、创造力、解决问题的能力、学习能力等等。和生命的定义一样,这本书做了一个广义的定义:完成复杂目标的能力,这就包含了上面所提到的所有定义,因为上面所有的定义都可以视为一个复杂的目标。
现在的人工智能还都是狭义人工智能,一个智能系统往往只能完成一个的目标,比如下象棋、图像分类、语音翻译等。谷歌旗下的DeepMind公司的人工智能系统AlphaZero稍微厉害一点,能通过从零学习不同的游戏,经过几个小时的训练就能打败人类对手。但是人类就不一样,一个健康的儿童,能通过学习学会任何游戏、任何语言、运动和职业技能,在完成目标的宽度上面远远超过狭义的人工智能,这被定义为通用智能。所以,能比拟人类的通用人工智能就是指可以通过学习完成任何人类能完成的目标,并且完成得不比人类差的能力,英文缩写为AGI。作者还专门用汉斯·莫拉维克提出的一张“人类能力地形图”做了个说明,不断上涨的海平面代表着人工智能在不断地朝着通用智能前进,露在海平面之上的就是人工智能还未能学习到的能力。
人类能力地形图人工智能还没学到的能力当中,最关键的是“设计AI”的能力。当人工智能掌握了“设计AI”的能力,就会不断地迭代,会变得越来越聪明,从而产生智能爆炸,超越人类智慧的人工智能就会出现。这种超越人类智慧的人工智能被称为超级智能,超级智能在完成所有目标的能力上已经远远超越人类水平。所以说,生命的未来是不是人工智能的关键点在于:通用人工智能会不会出现?
作者从物理学的角度,证明了通用人工智能出现的物理基础是存在的,而人类本身就是最好的证明。通用人工智能的关键在于学会设计AI,而学习对于智能系统来讲就是学会某个算法,让这个算法来完成某个特定的目标,而算法的计算单元最终是由一团物质以合适的方式排列起来形成。比如说人类大脑的神经元,当人类学会某个算法时,多个神经元突触之间的连接强度甚至连接方式就会发生改变,也可以说是组成突触的碳基物质进行了新的排列。又比如计算机的CPU,当CPU加载某个算法时,多个晶体管状态就会发生改变,也可以说组成了晶体管的硅基物质进行了新的排列。学习能力并非人类才会,计算机和其他生物也会,基于计算机研发出来的人工智能系统自然也不例外,甚至在特定的目标学习上,人工智能系统已经超越了人类,例如DeepMind开发出来的AlphaZero。
因此,对于通用人工智能是否到来,在科学界已经达成了共识,只是时间长短的问题。根据不同的时间长短和我们现在应该如何对待AI,目前科学家和企业家们分为三个主要的阵营。
第一个阵营是技术怀疑主义者。他们认为,建造超人类水平的通用人工智能相当困难,没有几百年的时间根本无法实现。人们没必要现在就开始担心AI,以免阻碍AI的发展。在线教育平台Coursera的联合创始人、斯坦福大学人工智能实验室主任、百度前首席科学家吴恩达就曾说:“担心杀手机器人的崛起,就好像担心火星出现人口过剩一样。”他认为出现通用人工智能还很远,现在担心人工智能风险,会引导人们对人工智能充满恶意,从而制约人工智能的发展。
第二个阵营是数字乌托邦主义者。他们认为,21世纪就有可能实现通用人工智能。并且,他们全心全意地欢迎生命3.0的到来,把它们视为宇宙进化自然而然、令人期待的下一步。人类不应该阻止或者是奴役它们,让它们自然发展,结果一定是好的。谷歌的创始人拉里·佩奇就是其中最具影响力的支持者,还有人工智能领域强化学习的先驱理查德·萨顿等人。
第二个阵营是人工智能有益运动支持者。他们也认为,通用人工智能有可能会在21世纪内实现,不过他们不认为它一定会带来好结果。他们认为,若想保证好的结果,就必须进行艰苦的人工智能安全性研究。这个想法是未来生命研究所大部分成员支持的想法,包括本书作者迈克斯·泰格马克。所以他们在2015年,发布了阿西洛马人工智能原则,让人工智能安全性研究进入主流。
在生命3.0时代,人类会有一个怎么样的未来?
上面说到,当人类实现了通用人工智能时,就会学会设计和迭代自己的软件和硬件,从而引起智能爆炸,出现超级智能。这时,生命就进入了3.0时代。
在生命3.0时代,生命会出现新的形态,比如赛博格和上传者。赛博格来源于英文Cyborg,也就是义体人类、生化电子人,用机械替换人体的一部分、联接大脑与机械的赛博格系统,看过《攻壳机动队》的同学肯定有很深刻的印象;上传者就是把思想上传到计算机中,完全抛弃人类的身体,在软件中创造出全脑模拟。这种上传者可以生活在虚拟现实中,也可以附身在能走、能飞、能游泳、能在外太空旅行、能在物理定律允许的范围内做任何事情的机器人身上,去体验不同的生活,而不用受到死亡的威胁。
当然,还可能有别的新形态,你只要发挥你的想象力,在不违反任何已知的物理定律情况,所做的设想都是很有可能实现的。比如,我觉得,随着人工智能的发展,人类的生命科学和基因工程技术也得到突破,人类用非机械的办法强化了自己的身体和大脑,甚至学会用身体来控制宇宙空间的能量,不断地升级自己的能力,继续以碳基的生命形态生存在这个世界,而超级智能,只是人类的合作者,形成优势互补,毕竟超级智能不等同于无所不能。宇宙那么大,个体始终会有它的意义所在,就好像蟑螂,也没看到人类把它消灭了,更何况人类还是有自我意识的个体,也并不是非得要变成机械人或者融合超级智能,才能生存下去。
《攻壳机动队》中的赛博格对于生命3.0到来以后人类的未来,《生命3.0》这本书里面主要是说到12种未来,分为3种结果。这里的每一种未来,你都有可能在科幻电影或者小说中看过。
第一种结果是超级智能与人类共处。
这类结果最典型的是自由乌托邦场景。在自由乌托邦场景中,人和机器的界限非常模糊。人类可以自由选择各种形态,可以选择把自己的智能上传到虚拟环境中,也可以选择身体机器化,成为赛博格,还可以选择保持人类的自然状态,生活在人类隔离区。《神经漫游者》这样的科幻作品,展示的就是这种自由主义乌托邦的场景。
也可能是善意的“独裁者”场景。有一个仁慈善良的超级智能掌管着世界。它执行着严格的规则,目的是将它的“人类幸福模型”最大化。也就是说,在这个场景下,人工智能会以人类的幸福为目标,开发出各种各样技术,尽可能地满足人类各种各样的物质和精神需求,让人类的幸福感最大化。
也可能是平等乌托邦场景。在这个场景里,人类奴役了超级智能,控制着各种各样的机器人为人类服务。人类可以从超级智能那里得到所有的一切,物质和精神的供应都是无穷无尽的,所以一切的专利、版权、商标和所有权都变得没有意义,所有的人都可以免费从超级智能那里平等地得到一切。
还可能是动物园管理员场景。出于某些目的考虑,一个无所不能的超级智能把一些人类留在了世界上,但是就像关进动物园里,只满足他们基本的生理需求、安全和足够的栖息地,而剥夺他们的自由。实现这种场景的办法多种多样,《黑客帝国》就是其中一种,母体建立了一个大工厂,通过脑机接口把人类的思维上传到虚拟空间,让人类像动物一样生活在里面,享受着虚拟和事先安排好的人生,但是不知道自己是谁。
第二种结果是斩断超级智能的发展。
人类因为恐惧超级智能的到来,决定停止发展人工智能技术,并且建立奥威尔式的全球性监控,以彻底防止有人私自研究人工智能。这种情景书中叫着“1984”。《1984》是英国作者乔治·奥威尔写的长篇小说,里面就是描述了一个独裁者通过无孔不入的监控,彻底剥夺人性、自由和思想。
又或者通过研发出一个超级智能,当守门人。这个守门人的职责是防止其他超级人工智能的出现,和采取各种手段禁止人类继续研究超级智能。书中还提到了一个守门神的场景,其首要的职责和守门人一样,也是防止其他超级人工智能的出现,但是它还有第二职责,就是和善意的“独裁者”一样,在不违背第一职责的情况下,给予人类最大的幸福。
还有一个可能的场景,就是“逆转”。这种场景比较可怕,而且经常在科幻电影中出现,就是人类有意或者无意毁灭了大部分的人类和科技文明,倒退回到了旧世界,靠刀耕火种来生存,比如来一场生化危机或者核战争。吴彦祖主演的美剧《荒原》描述的就是这个场景。
第三种结果是人类走向灭绝。
超级智能和人类发生战争,超级智能获胜,彻底地毁灭了人类,又或者是人类在研究出超级智能之前,就因为核战争或者小行星撞击而自我毁灭。还有一个比较温和的灭绝方式是,人类将人工智能视为自己的后裔,教导它人类的价值观,用以传承人类的未来,这就需要人类彻底抛弃血缘传承观念。
现在,亲爱的读者,你觉得哪一种未来是最有可能的?作者泰格马克创建了一个网站http://AgeOfAi.org,你可以在上面说说自己的想法,加入到超级智能和人类的未来探讨中!
(文中的部分图片来源于互联网,侵删)