我怎么知道我不是机器人?
我们已经进入人工智能时代,迫切的是《西部世界》S2已经归来,你很有必要知道机器人到底会不会成为人。而人与机器人的本质区别就是有没有意识。恰好昨天中午和几个同事也聊到“意识”问题,我就翻看了一些笔记,收集了一些信息。
1.生物学对意识的解释;
2.哲学家对意识的看法;
3.人与机器的本质区别;
4.《西部世界》的核心矛盾;
5.如今的最优回答;
6.《西部世界》可能成为真实世界。
首先声明,敢去触碰意识的科学家、哲学家并不多,只能是那些伟人。所以要说此文有什么原创性,几乎没有。
生物学对意识的解释
单独的神经元没有自我意识,意识产生于神经元的集合,意识的真相就是不同元素间的互相关联。意识是因为一个单独的刺激信号可以激发一系列反应,大脑皮层不同的部位可以相互交流。神经细胞整合的结果是让我们拥有意识,但当我们进入睡眠时,交流通道会暂时关闭,同样的刺激指挥产生短暂的局部反应,于是意识消失(这句话与后面托诺尼的观点有有部分冲突,无妨,因为如今没有权威确切答案,那就多知道几个解释更好)。
你看到的,你感觉到的,甚至你的情感体验,你的记忆,你的自由意志等等,实际上都不过是一大群神经细胞和它们接收、释放的相关分子的一种集体行为。
有一个非常有趣的关于果蝇的实验,一只雌性果蝇和一只雄性果蝇交配后,如果这时再飞来另外一只雄性果蝇,无论它多积极主动,多壮硕健康,那只已经交配过的雌果蝇都会拒绝它的求爱。这种拒绝比较轻的程度是飞走,或者躲开,比较深的拒绝就是用腿踢开雄果蝇。而那只热情的单身汉被拒绝后往往会在一段时间里陷入低落的状态,哪怕身边有雌性也不愿意再去求偶了。
这在卫道士看来,真是极佳的道德教化案例。真实原因是,第一只成功跟雌果蝇交配的雄果蝇,在交配时不但把精子送入雌性的体内,还夹带着送进去一些蛋白质分子,这种蛋白质会刺激雌果蝇的神经系统,抑制它的交配行为,而且还把身体表面一种小分子粘到雌果蝇的身体上,这种物质会刺激到雄果蝇脑中负责处理嗅觉和记忆的区域,叫蘑菇体,飞近了雌果蝇就会闻到,然后产生不好的感受,进而抑制到它们的活动能力和求偶行为。
有意思吧,这个类似于情感的行为是有化学物质基础的,甚至几乎完全由化学物质决定。
再进一步,人的失恋能找到这部分化学物质的影响吗?人的忠诚、善良、邪恶,也有物质基础吗?
哲学家对意识的看法
庄子可能是中国第一个认认真真思考“我们是谁”的人,这才有“庄周梦蝶”,以及“子非鱼焉知鱼之乐”等典故。
怎么证明我们在醒的时候感受是真实的,而在梦境中是虚幻的,庄子并没有回答清楚。
笛卡尔有句名言“我思故我在”。即我有思维活动,能够证明我的存在。这句话的逆否命题是“如果我不存在了,就不会思考的”。也就是说,如果我们的生命终结了,意识是不可能存在的。笛卡尔还提出了实证主义,即大胆假设,小心求证。当庄子不知道梦境和现实哪一个是真,哪一个是幻,他可以假设梦中的是真。根据笛卡尔求证的态度,梦中的真要能不断验证才行,但是这做不到。
那一定有人会反问,你怎么证明你在现实中看到的糖是真实的,它本身为什么不是幻觉?英国著名的大主教贝克莱给予了一个答案——“存在就是被感知”,你能感知糖的存在,你可以摸到它,可以尝到甜味。
哲学家的思辨其实很容易被科学进步强行扭转,所以,现在真正的神人,都是哲学家科学家的合体。
感知,亲身体验就是真的吗?很可能不是。亲身体验很可能是一个骗子,常常给我们制造各种各样的幻觉。
比如,医学上有一个概念,叫“牵涉性疼痛”,当一个地方发生了病变,我们的身体就会正常传递这种病变,而疼痛是身体的预警机制。在整个神经系统的传递过程当中,可能会出现一些差错,就像“搭错了线”——本来它要传输的信号是这样的,结果在传输过程当中,跟别的线搭一块儿了。本来你感受到胃痛,实际上可能是肩膀痛。你说这是真实的还是虚幻的?
还是医学领域,有种现象叫——幻肢疼痛,那些失掉了胳膊或者腿的人,他们会产生一种非常真切的幻觉,感觉失去的腿或者手臂还一直存在着。比如失掉了一只手臂的人会觉得,他的那只手臂有一种非常强烈的疼痛感——主体都没有了,感觉还存在。你说,什么叫真实?
我怎么知道我不是机器人?
人与机器的本质区别
当人需要补充能量了,不但知道去找东西吃,而且会产生“饿”的感觉。我们如果遇到危险,不但知道赶紧避让,而且还会产生“害怕”的感情。
从实用的角度,这些感情似乎起到了“思维快捷方式”的作用。之所以我们没吃饭的时候会饿,是因为你饿了,感到难受了,才会赶紧去找吃的。之所以你遇到危险会害怕,是因为你害怕了才能学会避免风险。感情无非也都是算法,是吗?但前面我们也讲到,感情似乎多余,还常常出错。
人在绝大多数情况下的动作都是本能的反应,并不需要什么感情。比如说你正在路上走,一个东西向你的头部高速飞过来,你本能地就会躲开,根本来不及有什么“感受”,整个动作是无意识的。我们的大脑里已经预先设置好了这种反应程序,我们的这些本能反应跟自动驾驶汽车是一样的。
我们完全也可以像机器人一样生活,饿了就去吃饭,冷了就加件衣服,一切都是本能,不需要附带感情。
那我为什么饿了不但知道要去吃饭,还要感受到痛苦?这个痛苦的感情,到底是个什么东西?
准确地说,我们所有的感情,乃至于不仅仅是“感情”,包括所有的“感觉”,都是对经历的各种事物的,“体验”。更准确地说,是“主观的体验”。
意识,是目前为止人和机器的一个本质区别。机器没有主观体验。意识,给了我们“自我”,给了我们“活着”的感觉。
《西部世界》的核心矛盾
如果有一个机器人无意中妨碍了你,比如现在家里的扫地机器人,你会迁怒于他吗?如果一个服务机器人,就像很多店里都有那种端菜机器人,你不小心把酒倒在她身上了,你会愧疚吗?也许,你没有任何不适,只是呼叫另一个机器人来打扫就是了。就算你把它损坏了,也只需要给它的主人相应赔偿就可以。对机器人,你不存冒犯不冒犯的问题。
那么,再进一步,人就可以造出无数机器人,供人为所欲为。《西部世界》里描述的恰是这样一个场景,人可以到一个机器人世界里肆无忌惮地挖掘自己的黑暗面——尽情释放你的欲望。《西部世界》里有句经典台词很值得玩味:所有残暴的欢愉,终将以残暴结束。
可是,如果这个机器人有意识,或者他们逐渐有了意识,怎么办?那就不行了 —— 机器人会感到痛苦。正因为人有意识,有这种主观的体验——比如痛苦,才有人权问题,才有道德问题。
这就是《西部世界》里的核心矛盾。
我怎么知道我不是机器人?
如今的最优回答
顺着前面的思路,我们不难想到,问题关键就在机器人到底有没有意识,或将来会不会产生意识?
如今,有一位叫朱利奥·托诺尼的神经学教授,提出了一个很有说服力的理论——整体信息论,这个理论号称能识别什么东西有意识。
托诺尼说,如果你能把一个系统分成几个模块,而几个模块之间并不怎么交流,那这个系统肯定就是没有意识的。一个有意识的系统必定是一个不可分割的整体!
托诺尼认为只有系统各处有高度一体化的信息交流的情况下,这个系统才可能是有意识的。
托诺尼用这个理论建立了一套计算指标并进行了实际运用,让一个人躺在那里,用仪器一扫描大脑就知道他有没有意识。比如这个人如果是清醒的,甚至哪怕是在做梦,他的大脑各个区域也在不断发生交流,那我们就知道他现在有意识。而如果这个人是处于深度睡眠,大脑各个部分之间不怎么交流,我们就能判断出他现在处于无意识状态。
更进一步,一个全身瘫痪的植物人,哪怕他没有任何办法和外界进行交流,我们也可以用这个仪器测量他的大脑是否还有意识。
《西部世界》可能成为真实世界
我怎么知道我不是机器人?如果你相信整体信息论,那当前的计算机架构永远都无法产生意识。因为这种计算机架构(图灵机)的各个部分之间并没有多少全局的连接。图灵机的局限性其实很大,上个月有一篇文章讲到过,因为它本质上是解决数学问题,但很多数学问题是无解的,有解的只有少数,而有解的当中又只有很少一部分是图灵机能胜任的。
但未来的 AI 也许会有意识 —— 只要能发明合适的计算机架构。毕竟整体信息论是对系统信息结构的要求,它并不在意信息的介质,那 AI 就不一定非得像人脑那样有血有肉才有意识。
所以,《西部世界》可能成为真实世界。