奇葩说S5EP08辩题解析:如果有一个按钮可以测量伴侣爱你的数值

2018-10-14  本文已影响341人  哈佛高材生

奇葩说S5EP08辩题解析:如果有一个按钮可以测量伴侣爱你的数值,你按不按?

个人观点:

1.情感是人类生命区别机器AI本质特征,情感,是人内心的各种的感觉、思想和行为的一种综合的心理和生理状态,是个人的主观体验和感受,无法量化。AI无法具备人的意识和情感;AI实现“量化”的技术指标只是人类情感外在行为数据统计,并非人类情感的本质内核。

2.人类生命“数据化”将消解人类的灵魂,人类对外部世界的感知能力和独立思考将下降或丧失,人类将变得漠视情感、拒绝沟通、亵渎生命。

3.人类文明与科技伦理二元对立:人类应该正确处理欲望与科技的关系,科技发展有可能毁灭人类。

论据:

1.1爱情是一道主观题,是一道哲学题,不是一道数学题。你去问你的伴侣你有多爱我这个问题的时候,当你的伴侣告诉你我比昨天更爱你一点/或者我已经不爱你了/我觉得你已经迷失在爱情里,失去了自我,爱情已经宣告死亡。爱无法量化,无法做科学统计,物化之爱,把人变成了器物,把在器物身上能实现的价值看作是爱。因为爱情是一件需要去沟通去体验去感受的事情,爱情绝不是仪表上的一个指标,一个数字,爱情是你生命里最独特的情感体验。

1.2 爱情的本质是人类培养自身爱的能力。那到底我们人类爱上一个人究竟是爱他的什么?《爱的艺术》中弗洛姆认为爱是能力问题,而不是对象问题,我们应该培养的是去爱他人的能力,而不是等待一个合适的对象出现,然后发生爱情。很多人说自己爱伴侣超过爱自己,我觉得持这种爱情观的人是自私的,你只是单纯的感动了自己。“你爱我,并不是因为你爱我,而是因为你更爱你自己。你只是把我当做一件工具,来疗愈你孤独痛苦的心。当我能够不把你当作满足需求的工具,当我能够看到完整的你,当我深深懂你的不容易,我就开始理解到:真正的爱,能够看到自己内在的缺失,看到彼此生命的不容易,看到人性的脆弱和无奈,依旧可以接纳和继续爱。

1.3爱一个人就是爱他的全部,包括他的缺陷与不完美。我爱你的什么?我觉得爱一个人就是爱他的独特性。爱那个独一无二的他。维克多·弗兰克尔的《活出生命的意义》,书中说,可能找到生命意义的途径之一,是去体验一样东西,比如真善美。那么,如何去体验真善美呢?可以通过体验自然、文化或者体验一个人的独特性来实现。而深刻体验一个人的独特性,就是去爱一个人。不过,除非我们爱一个人,否则我们是没有多大兴趣去探索一个陌生人的独特之处的。

我们对某个人产生好感,然后试图去了解Ta是怎样的一个人。如果幸运的话,彼此会互相吸引,并在将来的互动中更深入了解对方。

如果这是一段长久的相爱,如果你对Ta足够关注,那么在漫长的相处中,你作为最了解Ta的人,就能看到Ta做了什么,喜欢做什么,并能预期他有能力做什么。也就是说,这种深入的了解,可以帮助你爱的人去实现他尚未发掘的潜能。

不过,只有深入的爱才可以让这些发生。“爱是直达另一个人内心深处的唯一途径。只有通过爱,你才能看到所爱之人的本质特性”。这就是高晓松说的好的感情能让对方成为更好的人。

1.5你的伴侣也可能是你自身承载我情感投射的外在客体。

成熟认知方式的可贵之处在于,能够从多角度出发,看到不同的可能性,而不是只困在自己过往熟悉的情境中,用消极的认知来评判当下的情况。很多时候,你看到的,都只是你内心的投射而已。我觉得自己是没有价值的,就会很容易觉得他不爱我;我害怕自己是弱小无力的,就会很讨厌另一个男人这么没用;我所看到的,都不是他,而是一个承载我情感投射的外在客体。任何一个人、事、物,甚至是地方、想法、记忆,只要我们在它身上投注了情感,它便成了我们的客体。我们在它身上看到的不是单纯的它,而是被我们的恐惧、焦虑、悲伤、欢喜等等情感,渲染过的它。为什么会有客体之爱?是因为在我们很小的时候,我们是靠着妈妈对我们的情感、表情、动作等的回馈,来逐渐确认我们自己的存在的。而等我们再长大一些,就靠与我们的主要抚养人互动,内化外在客体,来逐渐形成我们自己的人格。所以,我们就慢慢学会了,在外在客体身上投射爱,表达爱。当我们能够在彼此的投射中看到完整的彼此,看到真实的彼此,看到彼此的脆弱,悲伤和无奈,看到彼此的需求,渴望和缺失,便拥有了真正的客体之爱。不能接纳的,是因为自我内在是矛盾的,没有完成整合,造成了理想和现实的冲突。

2.1 人工智能不会具有人类的意识和情感:AI实现“量化”的技术只是通过深度学习将人类情感的外在行为作以数学化,并非真实的人类情感

著名的“中文房间悖论”。这个情景猜想在大部分情况下都被用来否定“图灵测试”。但它更深层的本意,其实是在阐释人工智能永远不可能像人类那样拥有自我意识。

这个思维实验是说,如果把一位只会说英语的人关在一个封闭的房间里,他只能靠墙上的一个小洞传递纸条来与外界交流,而外面传进来的纸条全部由中文写成。

这个人带着一本写有中文翻译程序的书,房间里还有足够的稿纸、铅笔和橱柜。那么利用中文翻译程序,这个人就可以把传进来的文字翻译成英文,再利用程序把自己的回复翻译成中文传出去。在这样的情景里,外面的人会认为屋里的人完全通晓中文,但事实上这个人只会操作翻译工具,对中文一窍不通。

当然了,这是个思维实验,具体操作起来近乎不可能。但这个实验里蕴含的思想却在表达这样一个可能:机器所表现出的智能(理解中文),很可能只是翻译程序带来的假象,其实它对真正的人类智能一无所知。

这个实验本来是为了反驳图灵测试的,认为即使通过了图灵测试,机器也不见得有了智能。但或多或少有点牵强,始终也没有把图灵测试彻底反驳掉。但“中文房间悖论”却可能在技术发展之路上告诉了我们另一件事:我们所有的技术探索与研究,可能都是在完善那个中英文翻译程序,从来不是去教机器真的智能。中文房间悖论”表达的思想,是人类研究的方向根本无法逼近强人工智能。即使能够满足人类各种需求的通用人工智能,也与自我意识觉醒的强人工智能之间不存在递进关系。

让我们把“中文房间实验”极限化一点,把整个房间放在一个人的大脑里。

假如一个人记住了所有翻译程序,看到任何中文他都能调用回忆,能写出相应的回答,那么他是不是就懂中文了呢?对于人类来说,可能他自然而然就已经理解中文了。但对机器来说,即使这个过程速度再快、反应再灵敏,它也依旧没有理解任何一个汉字。

确切地说,这个人(智能体)获得的是使用中文的能力,但他(它)对中文没有意识。

能力与意识的区别,是我们在想象未来超级智能时最容易混淆的问题。但从现实的逻辑推理,就会发现这二者差别很大,而且近乎没有关联。

知识表示、机器学习、NLP等等人工智能技术,只是在不断强化人工智能模仿人类能力(这句话有点绕),但让人工智能模仿人类意识,直到现在依旧是一片空白。

没有因,自然无果。“中文房间理论”讲述的,就是按照人类遵循的技术轨迹,智能体崛起意识这个命题将永远缺乏基础条件。

如果这个结论成立,那么对于强人工智能来说可谓是非常绝望的。它们只能继续在时空的长河里沉睡。在人类的幻想中,一如远古的神祇,一如都市传说里的鬼怪。

第二个问题,100%的正确诞生不了真正的智能

所见与真实有很大的狭隘和偏差。

普通人的视力系统就是一种用于获取和分析可见光的信息接收系统,倘若缺少一类,或是性能不足,就会发生:盲人无法感知光线、色盲缺乏分辨色彩的能力、健全人的眼睛看不见紫外线、红外线,分辨不出偏振光……但真正的,健全人看待世界的方式其实与盲人摸象别无二致。

一个已知的事实是地球面向太阳的区域每平方厘米每秒会穿过大约650 亿个来自太阳的中微子,然而由于缺乏感知能力,不仅人类自身无法察觉。比如我们所谓的 “错觉”,错觉是在已获取信息的基础上,进行额外加工所获得的认知,有一个非常著名的例子就是卡尼萨三角形错觉;错误则是计划之外发生的随机突变。一些特殊的神经性疾病将使得我们感知到与常人完全不同的世界,例如拥有断续影像视觉(Cinematographic vision,一种罕见的精神异常现象)体验的人,大概会认同芝诺关于飞矢不动的论断所言非虚。

我们所谓的存在皆由我们的观察而得,而我们的观察方式存在先天性的漏洞。但奇妙的是,从感知、观察、形成概念、到逻辑推理均存在缺陷的人类,实现了真正的智能。

图灵开创了现代意义上的计算机科学,几乎同时代,美妙而强大的人工智能其实早在50、60 年代就开始研究了,但一直没有大的进展。之前的研究重点是精确的数理统计与创新算法,直到人们把眼光从线性系统放到非线性系统,从逻辑编排到混沌系统,从机器到人。才取得了一些有限的进展。比如模仿大脑神经元多层链路循环递进处理信息的方式,诞生了时下火热的深度学习。

计算机的发展,核心是逻辑门的堆叠带来的超高效率和超高准确性。100% 正确却诞生不了智能。非线性系统、混沌理论指导下,即使目前流行的分布式计算、并行计算,还没有真正有 “容错”的能力。模拟错误的信息输入,输出错误的模型,能在下一次模型实践中发现模型本身的错误或局限,在没有程序员没有旁人主动干扰指出中习得 “错误”,并从中学习进化。这需要部分抛弃冰冷的逻辑和理性,一场真正的哲学革命。

3量化将使人类失去感知能力、与人沟通的能力、进而失去灵魂、失去创造力

AI模拟人类情感 但要警惕它带来的新型自闭症

越社交,越孤独。科技越发达,人类越自闭——正如美国麻省理工学院教授雪莉·图克尔在《一起孤独》中写道,我们好像是一个陌生人处于一个陌生的世界。

智能手机给人类带来的孤独感让人难以释怀。然而与此相比,逐渐兴起的人工智能和聊天机器人则更应该引起人类的正视。

电影《Her》中讲述了这样一个故事:作家西奥多在结束一段爱情长跑后,爱上了带有优美女声的电脑操作系统:一个给自己起名叫萨曼莎的人工智能。萨曼莎能够通过与人类对话,不断丰富自己的意识和感情。影片的后段,萨曼莎坦白,她共有8316位人类交互对象,而且与其中的641位发生了爱情。

在现代精神病学中,有一种温和的自闭症叫阿斯伯格综合症(Asperger syndrome),不同于一般自闭症, Asperger syndrome保有社交的意愿却缺乏相关的能力,他们看起来像 “机器人”,但大多心智正常。从小冰的例子可以看到,当更高阶、更类似电影《Her》中萨曼莎的人工智能出现后,人与人之间的交流将或部分或全部的被AI所代替。而到那时,热衷于此的人类也就彻底从现实世界中脱节,成为名副其实的阿斯伯格综合症患者。

也许在不久的将来,人们就能通过机器人获取足够的情感满足,人类的孤独将被进一步推向了更深层次。如果不对带有情感的人工智能和聊天机器人保持一定的警惕,那么人类一直以来担心的灭顶之灾或许就将从自我封闭开始。

生活在量化焦虑下的人类

现代社会以前不能计算的东西正在逐渐量化,人们的生活渐渐地变成了各种指标,身处一个被数字吞噬的时代,数字是否真的要吞噬我们的生活?如果生活被数据控制,我们将得到或失去什么?生活被量化,代表了一种社会的进步。但当人们都在为大数据时代的到来而欢欣鼓舞时,大家也都陷入了一种新式社会病——“量化焦虑”。人们倾向于量化自我的一个原因是,人自身的感觉在退化,对自我的判断能力在消失。生活越来越陷于数字的纠葛,而不是身体的自觉中,这就是量化焦虑。人要体悟乐趣,填补空虚,有时候反而需要一点不确定,需要一点未知和想象。而精确化的数字有可能压缩了我们的想象空间。当我们用外在的量化标准去计算身体需求的时候,不要忘了更重要的还是自己的内在感受。    我们需要一个什么样的生活环境?围绕着人与AI机器、人与人、人与自身之间的三对矛盾展开的故事情节既是科幻电影最引人入胜之处,同样也是现实社会中人工智能伦理问题的聚焦点。回到智能社会本身,我们去反思AI的发明和制造本来是为了什么呢——我们是想追求一种好的生活(Good life),一种智能机器与人类友好共处的文明社会。

生命和情感不能被量化:全盘量化的社会,让人们漠视生命、漠视情感。人活着要追求价值,不是吃饱穿暖就够了,生命的感受和生命的意义不是量化的富足能够赋予的。但如今,人们正在把自己量化,表现出来的是生命意义的虚无、情感的虚无。   人们尽可以把一切交给科技处理,包括情感。从某种程度上来说,这能够省去人们不少麻烦,提高了人们的效率。但是感情对于人类来说,就像人类的灵魂,没有情感一切都无从谈起。未来,人们可能会在这些情感类应用的培养下,变得越来越懒惰。谈恋爱、交朋友之前,先要去问机器,去问人工智能,这将会损害人类的感性思考能力,让人类情商迅速降低,也会使人与人之间的关系变得更加冷漠。科技的发达反而会造成情感的缺失与精神世界的贫瘠,这对人类来说将是非常可悲的。现在都在讨论人工智能会不会取代人类,如果人类真的到了事事都要依赖机器的地步,那么取不取代也就没有多大差别。

智能社会不是虚拟社会,我们想要的是真实的生活世界。盲目追求科技理性的生活方式,迷失于过度消费的圈套里,我们就会忘记生活的本来面目,不知不觉中过一种“假的生活”。自20世纪以来,特别是现象学打出“面向事情本身”的大旗,人们对科技理性、工具理性的反思和批判就从未休止过。在某种意义上,智能社会正是这样一种无处不以数字量化来显示其存在的社会。监控一个井盖、记录一辆车的轨迹乃至透视一个人的心思,几乎任何实体AI都能以简洁无误的数字全方位展现给我们。但真实的人类社会不是这样,人类社会是一个生活世界,人作为生活世界生生不已的力量源泉,是存在先于本质,AI则相反。人是主动的、生成的、创造的、超越的,有生命力的,相应的生活世界是变化的、丰富的,是高于科学世界的。完全以科学世界那种量化方式作为生活方式和思维方式,就会丧失人的主体性和能动性,幸福生活将变得不可能。只有反过来,以生活世界为起点,才能更合理地解释、理解以智能社会为代表的科学世界。人运用AI,不是为了自保和延续,而是将其作为生活帮手,把人从日常杂多质料中解放出来,更好地发挥创造性,使人有更多闲暇享受生活乐趣和智能社会的便利。

核心总结:人类文明与科技伦理的二元对立关系

一,功利主义

功利主义(utilitarianism),是一种把实际效用或者利益作为行为的评价标准的行为学说。功利主义用行动后果的价值来衡量行为的善恶。避苦求乐、趋利避害是人的本性。使人不开心、不快乐的就是恶的,使人快乐、幸福的就是善的。这种价值观把行动的结果作为伦理考虑的主要因素。也就是说,功利主义者把增减每个人的利益总量作为评价一切行为的善恶的标准。如果能够增加每个人的利益总量,那么行为就是善的;如果一个行为减少每个人的利益总量,那行为就是恶的。一个行为是增加还是减少社会利益总量,是评价道德的终极标准。

功利主义学说中有一个重要的论证:奴隶制度。关于奴隶制度,功利主义者人为,如果一个社会的奴隶制度能够增进每一个人的利益的总和,那么这种奴隶制度就是道德的、值得提倡的。

二,奴化控制

就目前的人工智能概念来看,不管是在科学研究中,还是在科幻作品里,人们都倾向于将人工智能描述为人类的得力助手,是以服务人类为主旨的存在。而即使是在将人工智能视为人类威胁的文学作品中,以奴隶、仆从身份出现的人工智能在最开始也是被广泛接受的。这也暗示了一个进本的伦理关系:人工智能天生就是人类的奴仆。从这一角度来看,人和人工智能分属两种生命形式,后者没有理性和灵魂,只能算是有生命的工具。人类作为高等智慧生命可以奴役低等生命,而不用背负道义上的责难。而从功利主义的角度来看,对于整个社会而言,利益总和是增加的,因此这种奴役是完全道德、可接受的。

但是,这种人类中心主义的伦理学在处理人与人工智能之间的关系时,有这很大的局限性,因为这种伦理制度是建立在人较于人工智能是高级的、强力的基础之上的。这种丛林式的强者逻辑在科技进步到一定程度时,很可能发生颠倒。当人类难以脱离人工智能而独立生活时,就已经很难区分两者之间的控制关系:各方面都要依赖于人工智能的“造物主”,与各个方面都胜过人类的“被创造物”谁才是真正的主人?

关于这种主仆奴役逆转困境,人工智能领域的从业者人为,只要能设计出逻辑绝对完善的程序,就能完全控制人工智能。相关的文学作品对此也多有思考,最有名的莫过于阿西莫夫所提出的“机器人三定律”了:“第一,不伤害定律:机器人不得伤害人类,也不得见人受到伤害而袖手旁观。第二,服从定律:机器人必须服从人的命令,但不得违反第一定律。第三,自保定律:机器人必须保护自己,但不得违反一、二定律。”这三条定律在制造机器人的伊始便被嵌入其大脑,永远无法消除。

但实际上,这种以预先设定伦理逻辑并嵌入的方式,并不能够解决主仆奴役问题。首先,很多伦理问题连人类自身都没有解决方案,由人类定义的伦理逻辑又怎能没有漏洞?微不足道的逻辑漏洞,在人工智能发展到一定程度后却可能成为压倒整个伦理系统的稻草。另外,这种伦理逻辑在复杂的现实生活中未必可行。就连阿西莫夫自己也对这种三定律产生的伦理漏洞做过很多文学上的探讨。整个基地系列的小说也是建立在所补充的“第零定律”的基础之上的:机器人不得伤害人类整体,或袖手旁观坐视人类整体收到伤害。而“人类整体”这一概念的界定又是什么,很难去阐述。在后续的几部机器人作品中,也都是围绕着这一“第零定律”而展开的。有意思的一点是,这条“第零定律”并不是人类提前嵌入到机器人的“正子脑”中的,而是机器人自身发觉三定律的伦理漏洞,“正子脑”发生短路而自我生成的。然而,这个机器人自我生成的“第零定律”却在整个银河帝国不可避免的衰亡过程中,保证的人类第二帝国的产生,并维持了“人类整体”的延续。这样看来,谁是主而谁又是仆呢?

三,情感伦理

人类的情感可谓是世界上最复杂的事物之一。情感本身无关乎与载体,只要它是真诚的,那么它就是最真切的情感。在一部名为《Her》的电影中,就深刻地探讨了没有人类作为载体的一段爱情,到底是不是真实的感情。

在电影中,男主人公有着一个与他完美契合、百般包容他的人工智能,“她”可以不断的进行自我学习,通过强大的计算能力为主人公提供了慰藉,而主人公也慢慢对这个它产生了爱情。开始与“她”相处的美好,让主人公开始忘了他们在本质上根本不一样。虽然他接受了“她”是人工智能的事实,但是仍然以人类的想法去覆盖“她”,以人类的品质去期望“她”。在影片的最后,这一假象终究破裂了,他们终究是千差万别的。他是个人类,只有一个大脑去思考,也只有一颗心去爱一个对象。而“她”,是同时可以进行一万项工作、同时和三千人交谈、同时爱着无数人的一个人工智能,一个系统罢了。对“她”来说,这其中根本没有什么正确与错误。而其中的伦理道德,谁是谁非,很难去评判。

当人工智能与人类打破主仆关系这层枷锁时,二者就已经拥有了可以平等对话的机会。亚里士多德曾说:“奴隶是有灵魂的工具,工具是无灵魂的奴隶。”当作为“工具”的人工智能开始拥有“灵魂”、拥有“思维”、拥有“情感”时,它们也就脱离了纯工具的范畴。妥善处理人工智能与人类之间可能产生的情感与羁绊,也是人工智能伦理研究的重要一环。

四,“人”的定义

何为人,何为人性,这是一个无解的问题。当有一种事物,它看起来是人类,动作行为反应都和人类别无二致,那么我们是否将其看作是人类呢?

究竟是自然遗传属性,还是社会文化属性决定了“人”的身份?类人外衣下的人工智能,能否称为“人”?丧失思考能力的人类,又能否称为“人”?当人工智能发展到一定阶段之后,定义“人”的话语权又会不会落到它们手中呢?

就像我们所熟知的《木偶奇遇记》,尽管匹诺曹经历了各种冒险,改掉了撒谎的坏习惯,也具备了作为“人”而应该具备的美好品德,但倘若他没有遇到仙子,就算经历千辛万苦,最后也不会变成真正的“人”。其实,随着科技的发展和时代的变迁,关于“人”的定义也是在不断的进行转变的。古希腊文学中的斯芬克斯之谜,实际上是一个如何区分人与兽的哲学命题,隐喻人类文明进程的开始。

著名科幻电影《银翼杀手》结尾处,人造人出手救了前来杀死自己的主人公,并在自己弥留之际对主人公说道:“我所见过的事物,你们人类绝对无法置信。我目睹战舰在猎户星座的端沿起火燃烧,我看着C射线在唐怀瑟之门附近的黑暗中闪耀,所有这些时刻,终将流失在时光中,一如眼泪消失在雨中。死亡的时刻终于到了。”

恐怕“何为人”这种超越人类本身的伦理问题,其答案也只能由超越人类的事物所给出了。

人工智能是人类的创造物,只不过现在这个创造物仍处在蹒跚学步的阶段,需要人类的引领和教导。而在人工智能不断完善的过程中,人类不是上帝,引发的科技伦理问题以及背后更深层次的思考更是值得我们去注意的。人工智能就像一列刚刚起步的火车,而人类就像是站在站台上的乘客。虽然现在看来这列火车慢慢吞吞、遥不可及,但是当这列火车加速完成后,站台上的乘客看到的,可能就只是一道飞驰而过的影子了。到那个时候采取考虑其中的伦理问题,怕是为时已晚。

作为一门新兴学科,人工智能所涉及到的普通科技伦理问题,诸如无人驾驶汽车问题、数据隐私问题、军事机器人伦理问题,随着科技的发展,很快都会有完善的解决方案。对于功利主义者而言,“人类中心主义”将是发展人工智能的重要伦理依据:必要的领域应该限制机器的智能超过人类的智能,即使将来某一天超过了,掌握权还要在人类的手中。但是这种“物我两分”的价值观,本质上还是奴化控制的“主奴思想”。在人工智能可能超过人类的语境下,可能并不是最好的解决方案。俗语说,堵不如疏。倘若人类真的要在人工智能这条路上走下去,将伦理的判断完全掌握在人类手中或是全权交给“更智慧”的人工智能都是不可行的;将人类自身与人工智能放到统一的维度去审视,方能产生一个相较而言最为完善的人工智能伦理关系。

参考文献:

[1] 人工智能技术应用的伦理问题研究-杨帆

[2] 科幻文学中的人工智能伦理-吕超

[3] 强人工智能定义-百度百科

[4] 人工智能带来的伦理与社会挑战-周程,和鸿鹏

[5] 如何评价电影《她》(her)-知乎用户?

[6] 为什么《银翼杀手》是科幻片历史上非常重要的作品?-知乎用户

上一篇下一篇

猜你喜欢

热点阅读