《生命3.0》5:意识ABC(上)/(下)

2024-09-03  本文已影响0人  李成__北京

《生命3.0》5:意识 ABC(上)

泰格马克在《生命3.0》这本书里,把现在关于意识的问题分为四级:

第一级是:大脑是怎么处理信息的?大脑的智能到底是怎么工作的?

第二级是:一个有意识的系统和无意识的系统,从物理学来说他们到底有什么区别?

第三级是:物理性质是怎么决定感质的呢?

第四级是:为什么宇宙里面居然有意识的存在?

“意识”。这是当今无数聪明人最想搞清楚的问题,也是科学家解决不了、哲学家反复思考、各路牛人一直在吵的问题。

正因为现在还没有特别好的科学理论和科学工具描写意识,有关“意识”的各种讨论的专业性都不怎么强,所谓“前沿”的学说反而都是比较容易理解的。

1.细思恐极

有些特别常见、人人都有的东西,只有最聪明的人才能提出问题来。意识人人都有,很少有人质疑,但是如果你仔细想,你会觉得非常不对。AI 给思考人类意识提供了一个新角度,用这个更高的视角去看,你甚至会有一种细思恐极的感觉。

你知道你肯定是有意识的。可到底什么是意识呢?

思考,就是意识吗?想象一辆自动驾驶的汽车。这辆车随时接收外界的信息,随时处理这些信息,用各种复杂的算法对下一步行动作出自己的决策,它的确会思考。承认自动驾驶汽车是有智能的东西,但是它跟你有一个本质区别 —— 我们认为这个区别,就是它没有意识。

你上车了,它对你毫无感觉。把你送到地方、任务完成了,它也不会高兴。在路上遇到红灯停下来了,它也不觉得这是个麻烦。没有油了,他也不觉得饿。遇到危险,它也不害怕。就算撞车了,把自己撞坏了,它也不会觉得疼。它只是找到路线,油不够就去加油,遇到红灯就停,遇到危险就合理避让,它走在路上只是单纯地做着计算,它对走路完全没有任何*感觉* —— 它没心没肺地把任务完成了。它只是一台机器 —— 跟玩具汽车没有本质区别,只是多了点智能而已。

那我们跟机器的区别到底在哪呢?显然我们有感情。我们如果需要补充能量了,不但知道去找东西吃,而且会产生“饿”的感情。我们如果遇到危险,不但知道赶紧避让,而且还会产生“害怕”的感情。

从实用的角度,这些感情似乎起到了“思维快捷方式”的作用。之所以我们没吃饭的时候会饿,是因为你饿了,感到难受了,才会赶紧去找吃的。之所以你遇到危险会害怕,是因为你害怕了才能学会避免风险。感情无非也都是算法,是吗?

人也许并不需要感情算法。生物学家对人研究得越深,就越是觉得感情似乎是多余的东西。

人在绝大多数情况下的动作都是本能的反应,并不需要什么感情。比如说你正在路上走,一个足球向你的头部高速飞过来,你本能地就会躲开,根本来不及有什么“感受”,整个动作是无意识的。我们的大脑里已经预先设置好了这种反应程序,我们的这些本能反应跟自动驾驶汽车是一样的。

我们完全也可以像机器人一样生活,饿了就去吃饭,冷了就加件衣服,一切都是本能,不需要附带感情。

那我为什么饿了不但知道要去吃饭,还要感受到痛苦?这个痛苦的感情,到底是个什么东西?

准确地说,所有的感情,乃至于不仅仅是“感情”,包括所有的“感觉”,都是对经历的各种事物的,“体验”。更准确地说,是“主观的体验”。

意识,就是主观体验。

客观上,你冷静做好计算,该怎么办怎么办就可以了,可是我们偏偏多了主观体验。

2.哲学家的洞见

说到这里我们不得不佩服哲学家,哲学家在人类意识这个问题上想得非常深。哲学家的一个洞见是,我们能不能找到一个最基本的东西,来说明意识的存在。

请看下面这张图 ——

这就是最简单的红色的方块。看到这个红色,有什么感觉?

也许你联想到喜庆,也许你联想到鲜血,也许你联想到国旗。但是红色有很多种,总有一种红色是你从来都没有见过的,你无法跟任何文化符号联系到一起 —— 但是当你看到这种红色的时候,你还是会有一种感觉。

这种感觉也许是喜欢,也许是不喜欢,也许谈不上喜欢不喜欢,但是你总是对它有一种感觉,要知道有很多感觉根本就不能用语言描述。

如果是一台计算机看这个红色,那无非就是一个光学信号,没有可以多说的,编码一下就可以了,是什么编码就是什么编码,是什么色号就是什么色号。但是当人看到一个颜色,哪怕是完全陌生的颜色,你还对他产生一种感受,而不是把它当成什么光信号。

1929年,美国哲学家克拉伦斯·刘易斯(Clarence Irving Lewis)提出一个非常精彩的概念,描写你这个最基本的感受,叫做“感质(复数形式是 qualia,单数形式是 quale)”。所谓“感质”,就是意识的最基本单位。对你来说,红色并不仅仅是一个光信号,它还有感质。你品尝到的每一个味道,听到的每一个声音,都给了你感质。

咱们以前介绍过的哲学家丹尼尔·丹内特,说“感质”有四个特征。

第一,不可言传。比如说我见到一种你没有见到过的红色,我没有任何办法用语言向你描述看到这种红色是一种什么感觉。我可以给你打比方让你联想,我可以发给你准确的颜色编码让你想象,但是如果你不亲自看一眼,你还是无法准确知道这个红色到底是什么感觉。我们描写感觉的语言都只是近似的提示而已。

第二,感质是内在的。因为感质是最基本的意识单元,你总可以把周围环境因素都去掉,最后剩下的红色给你的感觉才是感质。

第三,感质是私人的。我对红色是什么感觉,你对红色是什么的感觉,咱俩的感觉能不能互相比较一下呢?没法比较,因为不可言传。

第四,可以直接意会。当你感受到一个感质的时候,你立即就知道你感受到了,不需要再有别的提醒。

丹内特说的这四条可能有点抽象,我举个例子你就明白了。假设现在有个色盲症患者,他从来没见过彩色,他眼中的颜色都是各种各样的灰色。你向他描述了红色的性质,他烂熟于胸,他知道红色代表的各种文化含义,他甚至能从眼中一大堆灰色中准确找到红色,但是他就是不知道红色到底是什么感觉!

直到有一天,他的色盲症被治好了。他一下子看到了彩色的世界 —— 这时候不用你说任何话,他马上就感受到红色!

这就是意识。如果一个色盲症患者也能生活得很好,为什么还要*感受*颜色呢?

3.活人之所以是活人

有些研究计算机的学者觉得意识不重要,但是你仔细想想意识肯定是重要的。意识,是目前为止人和机器的一个本质区别。机器没有主观体验。意识,给了我们“自我”,给了我们“活着”的感觉。

据说现在有的餐馆已经提供机器人端菜服务。如果有一个机器人把菜端给你,你一失手,把很热的菜汤洒到它身上了,你会感到“对不起”它吗?你大概不必有任何愧疚,无非帮它擦干净也就是了。就算你把它损坏了,也只需要给它的主人相应赔偿就可以。对机器人,你不存在什么冒犯不冒犯的问题。

可是如果这个机器人有意识,那就不行了 —— 它可能会感到痛苦。正因为人有意识,有这种主观的体验,才有人权问题,才有道德问题。

如果意识不重要,那么请问短期囚禁虐待一个人,甚至强暴一个女性,又有什么不对的?他们的身体没有受到什么伤害,过段时间就会一切如常。如果一个人就是一堆原子,你做的不过就是临时限制了一下这堆原子的运动,这又有什么不道德呢?

这种行为是犯罪,是因为人不仅仅是一堆原子,是因为人有主观体验 —— 是因为你给她造成了极大的痛苦!

如果将来讨论对待 AI 是否需要道德,大概根本判断标准是这个 AI 有没有意识。有人希望自己死后把全部的思想上传到一个机器人身上,要以机器人的形式继续生存。可是如果机器人的结构不允许意识存在,那它就算获得了你的思想,也只不过是个假装的你而已。所以 AI 研究的最高级别问题,就是意识。

关于意识的问题分为四级。

第一级是“简单”的问题:大脑是怎么处理信息的?大脑的智能到底是怎么工作的?这些问题其实也很难,但毕竟似乎是可以用计算机原理解释的。

第二级是“比较难”的问题:一个有意识的系统和无意识的系统,从物理学来说他们到底有什么区别?

第三级是“更难”的问题:物理性质是怎么决定感质的呢?

第四级是“特别特别难”的问题:为什么宇宙里面居然有意识的存在?

这张图是中国的快递包裹分拣机器人。它们忙忙碌碌简简单单,但是非常非常高效。为什么人不是这样的?我们为什么不能该吃吃该喝喝,啥事不往心里搁,为什么要有主观的体验呢?

试想在塞外的沙漠里,有一群生物正在默默地工作着。他们的队形整齐,动作有序,以最高的效率获取资源,没有一句废话。

可是就在这时候,其中有一个生物,突然抬起头来,看了看天边的景物,然后居然念了两句诗 ——

“大漠孤烟直,长河落日圆。”

你不得不承认,因为他这两句诗,整个大漠长河似乎不一样了。可是你不知道为什么要有这两句诗。

《生命3.0》:意识ABC(下)

现在科学家的确是非常不了解意识到底是怎么回事,但是也不能说一点进展都没有。

1.有意识的行为很少

人的大部分思维、动作和行为都是无意识的,有意识的只占极少数。

比如说,你一边走路,一边吃东西,一边还和身边的一个朋友说话。你走路的动作、对前方路况的判断、吃东西具体咬在哪里、如何吞咽……这些行为统统都是自动化、无意识的,就好像一辆自动驾驶汽车一样。真正有意识的大概只有你说的话,而且很多遣词造句还都是不假思索的脱口而出。

随便看看周围的环境,你的眼睛正在看的是一部超高清晰度的电影!这个电影的编码率得有多高?人的大脑每秒钟接收1000万比特的信息。那么人能有意识地处理的信息是多少呢?大概只有10-50个比特。绝大部分信息被我们自动处理、甚至忽略掉了。

而且人的自动行为和有意识行为之间,并不存在一个明显的界限。不熟练的事,你必须有意识地做,一旦熟练了,就可以变成自动化无意识的了。比如你刚学开车的时候每一个动作都得小心翼翼,开熟练了就可以一边开车一边想别的,有时候都不知道自己是怎么开过来的。

所以人的意识似乎有点像是一个 CEO,它只负责思考最重要的问题,简单的工作都交给机械化的手下去做。

2.意识到底存放在哪里?

意识到底是存放在大脑中某个具体的区域,还是整个大脑、甚至整个身体都参与意识?你的眼睛有意识吗?

图中有8个圆点,其中有些点看起来是凸出来的,像个按钮,有些圆点是凹进去的,像个凹坑。你知不知道哪些点是凸出来的,哪些点是凹进去的呢?

如果你和正常人的思维是一样的话,你应该看到其中有五个点是凸出来的,三个点是凹进去的。好,现在我们把这张图旋转180度 ——

你这时候再看,变成了三个点是凸出来的,五个点是凹进去的!

这种前后不一致,是因为这些点给你的感觉是一种主观的体验。因为平时的光源,像太阳和灯,都是在上方,所以你总是假设光线是从上往下照的!如果一个圆点上面比较亮,下面比较暗,你就认为它是凸出来的,反过来就是凹进去的。

那么由此可见,凹和凸不是你的眼睛看出来的,而是你的大脑意识处理的结果。眼睛似乎只提供画面,不参与意识。

这种视觉错觉实验很好玩,咱们再来一个特别著名的 —— 下面这张图上的小方格中,你是否认为 A 处比 B 处的灰度深一点?

那其实是你的错觉。事实是 A 处和 B 处的灰度完全一样。现在即便我告诉了你正确答案,你盯着这张图看,还是觉得 A 处比 B 处颜色深!这其实是因为旁边那个圆柱体的影子影响了你的大脑对灰度的解读。

其实只要你把图片放大,每次只看一个方格,就能看出来两个地方的灰度一样。还有一个办法是在另一张图上把两个地方连接起来 ——现在一目了然了。眼睛只负责传递画面,真正负责解读画面的是大脑的意识。

再来一个。下面这张图,你可以把它看做是一个白色的花瓶,又可以看做是两个面对面的黑色女人。

图还是同一张图,只是我们大脑的解读不同而已。你可以一会儿把它当成花瓶,一会儿当成两个女人,而科学家如果用核磁共振观察你的大脑,他能看出来某一时刻你想的是花瓶还是女人 —— 变化的不是你大脑中的视觉处理区域,而是其他区域。

由此可见,人的眼睛虽然具有复杂的信号处理计算能力,但并不参与意识。眼睛就是个机器。如果谁的眼睛失明了,换上人工的眼睛,也完全不影响到他的意识。

使用这样的办法,科学家把很多区域排除了意识之外。比如你的肠道里有很多神经元,肠道也是非常有智能的!肠道在消化食物的时候,并不需要通过大脑,而完全是本地化的计算 —— 但是科学家已经证明,肠道和你的意识无关。人脑中 2/3 的神经元都在小脑里,但是小脑已经被证明不参与意识。脑干负责你的呼吸以及协调很多活动,但它也不参与意识。

那意识到底在大脑的哪个区域里呢?目前还没有明确答案。这个要点是已经知道哪些部位没有意识。就算把那些部位全都用电脑代替,你也还是你。

3.意识的反应很慢

现在请你听我的指令,眨一下眼睛 —— 从你接受指令到实施眨眼睛动作,至少需要1/4秒的时间。

可是换一种方式,如果你的眼睛睁着,突然有个飞虫往你眼睛这边飞过来,你会用最快的速度把眼睛闭上 —— 在你意识到飞虫之前,你已经眨眼了!

由此得到,眼皮虽然没有意识,但是它却有一个高度自动化的本能防御机制。眼皮,是个智能的东西。

手也是这样。你把两个手指分开、悬空,让另一个人在你的两个手指中间将一支笔丢下去,看你能不能抓住这支笔 —— 你通常抓不住,因为你的反应速度没有这么快。但是如果他在扔的过程中,拿那个笔碰一下你的手指,那你马上就能抓住。这是因为你的手指是智能的,能做出本地化的反应。

而你的意识反应并没有那么快。意识的反应会受到距离的影响,从腿上传递一个信号到大脑,比从眼睛传递一个信号到大脑,就要慢出许多,因为距离更远。声音信号的传递时间比视觉信号更快,因为我们解读一个视觉信息要花更多的时间。

如此说来,人体并不是一整台计算机,而至少是很多台计算机的联网。意识只存在于大脑深处的某个区域,而身体各部分都有自己的智能。

那最终负责意识的那台计算机,应该是什么样的呢?这就引出了一位天才的理论。

4.整体信息论

朱利奥·托诺尼(Giulio Tononi)是个意大利人,现在在美国威斯康辛大学当神经学教授。我建议你记住这个名字,这位托诺尼教授算是当今的一个人物。

托诺尼的贡献是“整体信息论(Integrated Information Theory, IIT)。这个理论号称能识别什么东西有意识。IIT 是个高度数学化的理论,但是它的基本思想我们可以简单说说。

基本上,托诺尼说,如果你能把一个系统分成几个模块,而几个模块之间并不怎么交流,那这个系统肯定就是没有意识的。一个有意识的系统必定是一个不可分割的整体!

这似乎是容易理解的,我们的自我认同感毕竟只有一个。当然你可以说我们头脑中有多个不同的声音,但毕竟没到自我分裂的程度。如果人的大脑可以分成两个独立的意识系统,那人就应该有两个意识。

托诺尼的高明之处在于他把这个思想给数学化了。他还提出一个量化指标,用希腊字母 Φ 表示 —— Φ 代表一个系统的信息整合程度。只有当 Φ 非常大,也就是系统各处有高度一体化的信息交流的情况下,这个系统才可能是有意识的。

比如上面图中三个系统,第一个系统中各部分各自为政,显然没有意识;第二个系统各部分有一定的连接,所以可能有半个意识;第三个系统各部分充分连接,就算是有意识的。

托诺尼这个 IIT 理论甚至已经有了实际应用。使用他这个计算指标,让一个人躺在那里,用仪器一扫描大脑就知道他有没有意识。比如这个人如果是清醒的,甚至哪怕是在做梦,他的大脑各个区域也在不断发生交流,那我们就知道他现在有意识。而如果这个人是处于深度睡眠,大脑各个部分之间不怎么交流,我们就能判断出他现在处于无意识状态。

更进一步,一个全身瘫痪的植物人,哪怕他没有任何办法和外界进行交流,也可以用这个仪器测量他的大脑是否还有意识。

不过现在 IIT 还有很大的争议。比如我们大概认为 Φ 应该只能算作“有意识”的必要条件,可是托诺尼似乎认为只要是 Φ 值大的系统,就可以算是有意识的!但不论如何,IIT 大概算是现在关于意识的一个最靠谱的理论。

如果你假设 IIT 是对的,那我们就有几个有趣的推论了。

5.AI 的意识

如果你相信 IIT,那我有一个坏消息:当前的计算机架构永远都无法产生意识。这是因为这种计算机架构的各个部分之间并没有多少全局的连接。

但好消息是未来的 AI 也许会有意识 —— 只要我们能发明合适的计算机架构。毕竟 IIT 只是对系统信息结构的要求,它并不在意信息的介质,那 AI 就不一定非得像人脑那样有血有肉才有意识。

但是 IIT 给 AI 的意识能力,提出了一个限制。有的科幻小说里建立一个星系那么大的 AI —— 比如说让遍布整个太阳系的计算机互相联网,形成一个巨大的 AI —— 那么 IIT 说,对不起,这么大的 AI 不会有很有效的意识。这是因为 IIT 要求信息高度整合,组成 AI 的各个部分之间要有很多横向的信息交流,而信息交流的速度受到光速的限制。从太阳到地球,光要走8分钟。如果整个太阳系联网组成一个有意识的大 AI,它的意识反应速度将会非常非常慢,半天都说不出一句话来。

这就意味着不管技术先进到什么程度,也不可能出现一个神级 AI 直接统领一个星系!它必须把权力下放,在各个地方设立代理人。

***

我们仍然不知道,AI 到底能不能有意识。几百年后,当 AI 仰望星空的时候,他也能看出一点诗意来吗?我们最好指望它有意识。而且因为 AI 能接收和处理的信息比人多得多,它会有比人丰富得多的体验。

当你追求效率的时候,你可能会觉得意识是个累赘 —— 干活儿就干活儿,念什么诗啊。可是我们上周说了达里奥的企业家视角,这周说了泰格马克的科学家视角,把这些东西放一起,我总结一下,那就是 ——

所有效率最终归结于目的,所有目的最终归结于价值观,所有价值观最终归结于感情,所有感情最终归结于意识。

有了意识,这个世界才有了好坏,才有了幸福,才有了意义。

泰格马克说,不是宇宙给了生命意义,而是我们这些有意识的生命给了这个宇宙意义。人类文明最坏的结局,就是要么人类灭亡,要么被没有意识的僵尸 AI 取代 —— 留下一个空洞的、毫无意义的宇宙。

上一篇下一篇

猜你喜欢

热点阅读