大数据,机器学习,人工智能自然科普读书

从基因到人工智能:思维与身体的进化

2018-04-26  本文已影响350人  我爱大头老婆

自私的基因,生物只是基因延续的机器,人类进化只是偶然

1.思想实验:亿年机器人,也许一切生物都是为基因服务

试想一下,假如你想见识到一亿年以后的世界,而你的身体在不停的衰老,现代医学和生物学也没有破解人类死亡的秘密,你将怎么办?

让我们尝试回答一下,像《星际穿越》里面一样,也许人类可以在休眠舱里休眠,直到一亿年以后由后代将自己唤醒,或者像《三体》里面的三体人一样,将身体脱水然后保存起来。条条大路通罗马,两种方法策略相同,也就是目前人类可以想到的最好方法就是将肉体“冰冻”,在物理意义上跨越时间。

但是思想实验有趣就在于,你要在脑海里想象各种情况的发生,并尝试解决问题。现在让我们想象一亿年时间世界会发生什么:地震,海啸,核弹危机,疾病爆发,彗星撞地球,甚至外星人入侵,千年一遇的灾难地球每天都在发生,怎么避免?我们尝试两条策略。

1.静态策略:建造一个及其坚固的建筑,里面储存足够支撑一亿年的物资,以及可以保存人体的生物仓,只待一亿年后的到来,生物仓开启,人来达成目的。这条策略万无一失吗?明显没有,一亿年对人类来讲太长,长到足以改变一切,今天一切的准备和假设都会改变,而且该策略明显过于低效。

2.动态策略:建造一个机器人,把人保存在里面,机器人可以自己寻找可靠的环境,生存物资,和规避危险,但为了保证机器人可以运行到一亿年以后,就必定要为其开放一些自主决策的权利,并在环境变化的过程中不断适应环境,进行进化,然而,一亿年后的机器人会变成什么样子,它还会按照最开始的设定完成任务吗?

上述思想实验来自丹尼尔·丹内特的《直觉泵与其他思维工具》一书,聪明的你可能已经发现,上述静态策略就是自然界里的植物,而动态策略就是动物,里面的乘客就是基因,这又与另外一本颠覆三观的科普书《自私的基因》一书里的观点不谋而合(其实不是)。《自私的基因》作者是理查德•道金斯,牛津大学教授,被誉为“新无神论的四骑士”(下面四位,从左到右依次为Richard Dawkins,Same Harris,Christopher Hitchens,Daniel Dennett),著作等身,该书为其科普三部曲之一,另外两部是《盲眼钟表匠》和《魔鬼的牧师》。

2.“达尔文主义”的自然选择,究竟选择什么?

“天下熙熙皆为利来,天天攘攘皆为利往”,各种生命一代一代在地球上繁衍生息,斗转星移,此消彼生。根据《自私的基因》一书思想,生命体的一切行为都是为了将基因更好的延续下去,无论是利己行为还是利他行为,因此,“适者生存,优胜劣汰”的真正单位就是“基因”,基因创造了我们的肉体和心灵,保证基因的复制和流传是所有生物存在的终极理由,人类也不例外,我们只是基因的生存机器。

3.人类进化到今天,大多是因为偶然

如果把人类比喻成一辆基因公交车的话,那么基因则是公交车上的乘客,在开往目的地的路上,一路荆棘坎坷,有的基因掉下了车,有的基因在车陷入泥坑时推了一把,有的基因则静悄悄的藏在车里,等待时机来临。这里面,有的基因无限的复制,成为了致癌基因,有的基因掌控死亡,因为公交车会损坏,乘客要换成下一辆车,哪个基因会为到达目的地做出贡献都不一定,因为这取决于环境变化,而环境变化又有很大的随机性。人类进化到今天,是很幸运的,举个例子,恐龙因为某种原因灭绝,体型较小的哺乳动物得以称霸地球;因为气候变化,森林变为草原,猴子猿类开始在地面活动,逐渐变为原始人种,跟在狮子老虎后面捡食物吃;一次偶然的森林大火,人类吃到了烤熟食物,加速肠胃吸收,促进了大脑发展,并发现了火的妙用,人类群体得以壮大;但还是不够大,直到某个种群的人类大脑复杂到可以产生语言的时候,群体产生了质变,形成了初步社会合作,很快消灭了其他人种;逐渐的,人类开始驯养动物植物,建造房子,预测天气,建立制度,人类进入农业革命时期。现在,我们正处于科学革命时期,该观点来自由瓦尔·赫拉利的《人类简史》一书,作者认为该时期人类有三个思想特点:

1.承认无知。

2.以观察和数学为中心。

3.把理论转化为具体的科技成果。

到了这一阶段,人类已经可以较为清晰的认识自己的存在了(至少人类这么想),可是人类下一步往哪里走呢,书里给了三个方向:

1.改造基因序列,目前已经有成熟的技术可以做到,到具体的基因信息还没有统计完全,并且该技术被列为“全球十大可以毁灭人类技术”之一,并排在核弹之前。

2.人和人工智能结合,将在下文进一步讨论该方向。

3.制造“生化人”,个人感觉最不可能实现的一个,无论是伦理还是技术手段。

根据热力学第二定律,宇宙终将归于混沌,万物终将归于同一,这时,人类将如何自处呢?

生命三点零,人类终将进化到哪里

人来毫无疑问将是地球上最成功的一届霸主,并且很有可能殖民太空。但是生在食物链的顶端,就势必无法对底层发展做出贡献,就像爱德华·威尔逊说过的“如果人类全部消失了,世界会恢复到万年前富足平衡的状态,但如果昆虫消失了,生态环境将会混乱崩溃。”。毫无疑问人类是地球上最贪婪,最无情的掠食者。说地球是人类的母亲,人类是万物灵长,那只不过是文学家用来粉饰人类的说辞罢了,人类不过就是地球上的寄生虫。然而,人类是目前地球上诞生的最高级生命体,这也是毋庸置疑的,而人类种群存在最为直接的目标也是存在下去,哪怕地球毁灭甚至太阳系毁灭。

人类之所以伟大(至少自认为伟大),是今天人类已经在某种程度上掌握了自我进化的方向,并且可以驾驭知识,然后利用知识改变生存环境。这种自我把控生命的能力,将是人类迈向更高级生命体的大门,而钥匙可能藏在基因里,也可能藏在人工智能里,或者二者结合也说不定呢。这里引用并强烈推荐泰格马克的《生命3.0》一书,全书英文名称《Life 3.0: Being Human in the Age of Artificial Intelligence》。作者泰格马克是个物理学家,但在人工智能领域也做过许多漂亮的研究,其朋友圈汇集了AI界的相关大佬,比如谷歌创始人拉里·佩奇,硅谷钢铁侠埃隆·马斯克,以及吴恩达等,横跨学术界和工业界,但是泰格马克发现AI一线大佬对AI的发展意见并不同意,因此他从一个物理学家的角度写了这本《生命3.0》,阐述各派观点,以及自己对AI的看法。

首先,什么是生命?根据书中的定义,生命就是可以自我复制的信息处理系统。其中“信息”包括个体硬件复制蓝图以及个体行为模式。从对硬件和软件的把控程度来讲,生命可以分为三个大层次。

1.生命1.0

软件和硬件均为自然选择结果,并不包含自我设计的过程,在地球上除了人类以外均为此版本,但是根据进化程度不同,可以更加细分,比如黑猩猩群体的进化水平已经相当于人类石器时代水平,可以划分为1.5.

2.生命2.0

硬件升级以来自然演化,软件可以部分自我设计。作者在书中阐述,人类DNA大约包含1.6GB信息,大脑容量约为100TB,所以可以把DNA信息看作基本生存信息,而其他信息则是在成长当中学习到的,也就是人类可以在一定程度上设计自己的生命行为。

3.生命3.0

软件和硬件都可以自己设计,最接近该生命体且有可能认为实现的我能想到的就是未来3D打印机了,因为他满足两个必要条件,第一可以自我复制下一代,并根据自我意愿设计硬件,第二可能拥有意识。至于意识是什么,怎么让机器拥有意识,将是人类共同面临的难题,需要各界共同努力才可以。

最后,作者总结,如果3.0AI出现,那将是人类最后一个发明,或者那就是下一代人类呢。也许有一天,未来的高级生命会一边欣赏着瑰丽的宇宙,一边回想着他们消失掉的造物主呢?又或者,我们将出现在他们的神话当中呢。

人工智能,可能是人类进化的不二选择

人类是一种缺陷很多的生命体,脆弱的肉体和低效的能源利用率可能会将人类永远约束在太阳系。举个例子,根据爱因斯坦质能方程E=mc^2来计算,人类吃糖的效率相当于0.00000001%,烧煤是吃糖的三倍,汽油是吃糖的五倍,裂变的效率为0.08%,巨变0.7%,而利用黑洞的效率理论上可以达到20%-90%,也就是如果未来可以利用黑洞发电,或者成功建造戴森球,今天的一切节能环保都是笑话。

人类进化的方向

这里谈一点我自己的观点,根据人类进化的方向来看,目前人类仍在发展进化的就是大脑,换句话说也就是智力。根据统计结果显示,全球人类平均智商(智力和智商不一样但是高度相关)每年上升约0.6个百分点,除了智力之外,目前地球上的环境已经无法对绝大多数人类产生影响了(不是学生物的,可能不正确),因此以前的“适者生存”条件的影响将弱化,因此我觉得长期来看人类除了大脑外其他器官不会有太大变化,也就意味着人类的进化将被身体拖累。

举个例子,目前NASA几乎已经放弃或者展示弱化对载人航天技术的研究,原因很明显,人类的身体对长期航行任务是个累赘,需要大量的食物供给,并且难以适应太空生活,因此航天机器人成了不二选择。进一步向,假如某一天人类不得不离开地球,因为地球能源已经枯竭,或者太阳变得不稳定了,那么人类拖着肉体能走多远呢,人类是否能建造一艘方舟来保存生命的火种呢。人类过于脆弱,所以我的观点是并不反对AI取代人类,因为想要更长远的延续自己的文明,主动进化必不可少,也许人类必须迈出的一步就是接受AI呢。

AI与AGI,AI发展的道德困境

回到现实中来,现在大热的AI被资本和媒体哄抬的过于先进了,我不敢妄言现在的技术是不是可以带领人类走进AI时代,但就像吴恩达说的一样“现在担心AI统治人类,就像担心火星人口爆满一样”。因此为了区别或者定义真正的人工智能,有人提出了Strong AI概念。

1.AI与Strong AI,图灵与中文屋子

AI是Artificial Inteligence的缩写,AGI则是Artificial General Inteligence的缩写,也就是通用人工智能,一种类似人脑的具有普适智能的能力。提出强人工智能概念的不是AI科学家,而是著名哲学家赛尔。他把拥有意识、意向、意志的机器智能叫做强人工智能,而为了检测机器人或者AI有没有意识,或者进一步完善图灵测试,赛尔设计了著名的思想实验,叫做中文屋子(Chinese Room)。

实验内容很简单也很巧妙,其实验可表示为:一个人手中拿着一本象形文字对照手册,身处图灵实验中所提及的房子中。而另一人则在房间外向此房间发送象形文字问题。房间内的人只需按照对照手册,返回手册上的象形文字答案,房间外的人就会以为房间内的人是个会思维的象形文字专家。然而实际上房子内的人可能对象形文字一窍不通,更谈不上什么智能思维。

有观点认为,中文房间里的人、手册等都不理解中文,但作为一个整体的这座房间是理解中文的。比如上文提到的丹尼特就认为,如果房间外的人提出复杂的问题(比如这个问题需要承接上一个问题来回答),那么这本手册能否找到答案?举个例子,房间外的人问:“你上一句话说的是什么?”,难道手册上记录着上一句话的内容?因此人类的思维是否是1+1>2的问题呢?答案还不明朗。

2.新电车困境

电车难题最早是由哲学家菲利帕.福特(Philippa Foot)于1967年发表的《堕胎问题和教条双重影响》论文中提出来的,用来批判伦理哲学中的主要理论,特别是功利主义。功利主义提出的观点是,大部分道德决策都是根据“为最多的人提供最大的利益”的原则做出的。其内容大致是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉杆?

目前哲学,心里学界并没有给出标准答案,因为这个问题本身不存在绝对正确的答案,因为人本身就是矛盾和充满缺陷的。也正因此,在自动驾驶呼之欲出的今天,一个新的难题摆在了人类面前。

有人应该听说过Uber的全球首例无人车交通致死事故,这一撞也带了一场关于无人车是否应该承担事故责任的讨论热潮。

人工智能时代已经开始?也许吧,如何与人工智能共处,身为开发者如何让人工智能更好的为人类服务,如何解决人工智能道德问题?

3.人类的困境与出路

科幻小说大师阿西莫夫曾经提出过影响力极大的机器人三定律:

第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害。

第二定律:除非违背第一定律,否则机器人必须服从人类的命令。

第三定律:在不违背第一及第二定律下,机器人必须保护自己。

然而三定律可以解决新的电车困境吗?

我想答案是不能。

MIT的自动驾驶实验室关于自动驾驶道德问题做过一项最新研究,并开发了一款自测工具--道德机器,(http://moralmachine.mit.edu),有兴趣的可以自测一下。可是之所以是困境,就是人类无法为其找到一个全人类公认的正确标准。道德这个东西太泛泛,每个人每个国家都有自己的道德观,并且时刻都在改变,因此目前人工智能或者自动驾驶面临的最大难题不是人类无法接受机器犯错,而是来自人类自相矛盾的观点。

这就是新的社会困境,像踏板原理一样,上车前大声喊着挤一挤的人,上车后就是最不愿挤一挤的人。人类始终希望自己站在有利位置,因为骨子里的基因就是自私的,当你坐在自动驾驶的车里时,你希望总是优先保证乘客的安全,可是当你在车外时呢?

困境之所以为困境因为它没有统一的正解,也许有一天技术会解决电车问题,但是人工智能的路还很长,未来难以预测,脚踏实地仰望星空才是正解。

上一篇下一篇

猜你喜欢

热点阅读