GPT-5:硅基生命登场,人类,你准备好了吗?
第【376】篇个人原创。
感恩关注,欢迎转发。
![](https://img.haomeiwen.com/i4432747/77fa8c9e57456856.jpg)
今天刷到一条网络热搜:马斯克呼吁暂停GPT-5等强人工智能研发。
大意是说,一个叫“生命未来研究所”的组织发布了一封公开信,“呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的AI系统,暂停时间为至少6个月”。如果不能停止研究,则希望各国政府能够介入。
截至目前,包括埃隆·马斯克,图灵奖得主约书亚·本吉奥,《人类简史》作者尤瓦尔·赫拉利以及美国著名电脑工程师、苹果联合创始人史蒂夫·盖瑞·沃兹尼亚克在内的1000多位名人大佬已经在此公开信上签名。
简而言之,在AI面前,人类害怕了。
结合最近有关人工智能的种种甚嚣尘上真假难辨的新闻,历来科幻电影中最喜欢描述的“机器人大败人类”的情节似乎马上就要变成活生生的现实了。
虽然以马斯克为代表的人类精英希望在AI正式崛起之前踩一脚刹车,但我却认为这种行为多半徒劳。原因很简单,我认为技术的发展自有其内在的逻辑,说它有“自由意志”也可以,总之是挡不住的。任何技术要么不出现,一旦出现之后,就不可避免地会与多种现实因素发生关联,因此就很难完全单独地被人类掌控。持这种看法的人很可能高估了人类自身的能力。
比如火药被发明之后,我们用它来放烟花,西方人用它来做枪炮,虽然用途各异,但总之都会先拿过来用,期望它就放在那里像没被发明时一样是不现实的。还有前些年吵得沸沸扬扬的“克隆技术”和“基因改造”,虽然目前“不能用于人身”是科学界的共识,但几年前不还是有科学家已经这么做了吗?只要可以做,就会有人做。说不定此刻就有一批科学怪人正在太平洋的某座小岛上做着类似克隆人和改造新生儿基因的事,谁知道呢?
再说和这种最前沿的技术掺杂在一起的,不但有商业上的巨大利益,也有青史留名的巨大诱惑,怎么可能禁止得了?你说停止研发就停止研发,你也太天真了。大多数和平主义者还认为所有拥核国家应该全部主动销毁所有核武器,其他无核国也不得继续这方面的研究呢,成功了吗?
那难道所有人从此刻开始就应该胆战心惊地过日子了?我觉得这也没必要。该发生的始终会发生,该来的始终要来,你恐惧担心它会来,你不恐惧不担心它一样会来。既然这样,我又何必恐惧担心呢?爱谁谁。
不过这条热搜还是让我想起了一些旧事。许多年前,偶尔仰望星空的时候,我会试想人类文明最终的结局。在我能想到的所有可能性中,我始终觉得“人类自己作死自己”的概率或许是最大的,这从以往许多历史经验中都可以得到验证。所以才有了黑格尔那句广为流传的名言,“人类从历史中学到的唯一教训,就是人类无法从历史中学到任何教训。”
“世上本无事,庸人自扰之”,总体来说,人类就是永远无法抑制自己的好奇心,不管是在好的方面,还是在坏的方面,这是永恒的人性。我们曾因此成为地球上的万物之灵,当然也有可能因此堕入无间地狱,而当下“分新秒异”(用“日新月异”根本无法形容它的进展之快)的AI技术也许就是打开地狱之门的钥匙。
我还想起一直困扰着科学界的一个问题,就是按照宇宙的尺度,外星文明几乎肯定是存在的,可为什么人类至今都还没发现他们的踪迹呢?我想真实情况会不会正如AI技术大爆发之前的人类文明一样:这些文明在掌握星际远航能力之前,就已经因为某些不可控的技术发展把自己给作死了。如果这种猜想正确,你猜人类会不会重蹈覆辙?
扯远了。其实我想说的是,不管AI最终带给人类的是福音还是灾难,这都不是你我这些升斗小民所能决定主宰的。全人类会共同承担技术进步所带来的祸福难料的后果,但决定权只掌握在那不到1%的人手里。我们是乘客,但最终决定邮轮前进方向和航速的,是船长和大副那少数几个人。
所以,我们普通人对此最好的态度无非就是“好好生活,理性吃瓜”。比起AI会不会最终毁灭人类,我猜你更关心的可能是“这个月的车贷房贷该怎么还”“孩子到底该进哪所幼儿园”以及“如何应对可恶领导的压榨、心机同事的甩锅和生猛后浪的冲击”等现实问题。否则,在硅基生命彻底毁灭碳基生命之前,你也许早就被名为“生活”的怪物折磨得九死一生了。
最后,我想起多年前看过的一个段子:
弟子问师傅:“您能说说人类的奇怪之处吗?”
师傅回答:“他们急于成长,然后又哀叹失去童年。他们以健康换取金钱,不久后又想用金钱恢复健康。他们对于未来焦虑不已,却又无视眼下的幸福。因此,他们既不活在当下,也不活在未来。他们活着仿佛从来不会死亡;临死前,又仿佛从未活过。”
师傅就是师傅,一针见血。
不过,我还是想借着师傅的连珠妙语再啰嗦两句,算是自勉,也算对看到这里的你的友情提醒:
不要像永远不死那样去活,也不要像从未活过那样去死。
《如是我闻》
已有之事,后必再有;已行之事,后必再行。日光之下,并无新事。
——《圣经·传道书》