霍金最后一课

2019-06-17  本文已影响0人  异类猜想

“当上帝关了这扇门,一定会为你打开另一扇门”,斯蒂芬·威廉·霍金的一生充分的阐释了这句话的内涵。


霍金认为人工智能的崛起对人类社会的发展是否带来的一定是有益的一面,仍然是不确定的因素。

未来的发展很难有人能准确的描述未来的蓝图,即使是霍金这样的思考者,很多作家的科幻作品都在脑洞大开的情况下描绘了人类认知范围内的未来场景,但当人工智能的时代真正来临时,人工智能的发展很有可能会超出人类意识发展的范畴,让人类无法理解。

许多思考者从技术、理论等多方面探讨人工智能是否能够具有情感等人类特有特征,从理论上探讨人工智能和人脑是否可达到相同水平,霍金认为仍然没有人知道,霍金提出了更具有现实意义的思考,随着人工智能的发展,从人类社会的发展角度看重点考虑如何建立人工智能的管控系统,更具有社会意义。必须可控的人工智能是保证人工智能发展不会造成毁灭性危害的基本原则。

1、人工智能对社会的影响,超人工智能对社会一定会带来的巨大社会收益,但如果部署不当,同样也会给人类带来反效果。

刀剑并无正邪之分,邪恶的只是握剑之人。任何一个工具,都有它的两面性,让工具发挥何种价值,完全在于手握工具的人。人工智能对社会带来的发展,一定程度上仍然取决于我们如何使用它。

2、人工智能势必会带来多学科融合的发展,在共享理论框架的基础上,结合数据的供应和处理能力,细分领域的突破,推动细分领域技术从实验室向商业化转化的加速度,循环以往。

自人类知识的积累随着书籍的方式进行突破性的传播与发展,为了更有效的对知识进行获取、理解、传播,人类在认知范围内对知识进行了主观意识形态上的分类,但随着人工智能的发展,势必会突破人脑对知识获取的种种限制,建立新的融合性知识分类。

3、各领域技术的突破,势必在人类根除疾病和贫穷取得重大突破。

人类终极发展进化的短期目标仍然是长生不老,长期目标仍然是从有机形态到无机形态转换,人工智能的崛起势必为人类迈向进化的短期目标更近一步。

4、致命武器的研究是否应该被禁止,当武器达到了自主运行时,“自主”应该如何精确定义。

地球已知的一万四千枚核弹,足以毁灭地球N次,当武器向人工智能领域发展时,人类在对于能够规模的地球的力量控制上,将变得更加敏感。

5、短期社会事业和长期系统失控的潜在风险

人工智能将人类的社会化分工推向一个新的时代,无法满足社会发展的人们在短期内将面临失业的风险,社会技术在人工智能的推动下将将远远超出人类知识的可接受范围,长期以往,人类生活的社会环境也将发生转变。

6、人类历史上的发展远不如未来科技发展所带来的的进步

人工智能的发展速度将成几何式的增长,同样带来技术的进步,也将远超出人类从已知历史到现在所有技术的总和

7、人工智能的发展是否是人类的终结,如自主武器、核武器。

人类的命运如何,完全在于人类对于人工智能的控制体系的建立。

在人工智能管控系统的设计上,霍金给出更好的建议

1、未来人类应该从过去投入大量时间研究历史转向投入更多的时间研究未来

2、关于人工智能的发展,是否存在电子人格的讨论是没有实际意义的,毕竟与人类进化发展相近的大猩猩是否具有人格都没有提上议程。

3、任何一个人工智能都应该有确认的终止开关。

上一篇下一篇

猜你喜欢

热点阅读