胡家奇谈人工智能:继续发展将威胁人类
在过去的一个多世纪里,国际上科幻作品的主流,是对科学技术的反思。几乎所有的西方科幻作品里的人工智能都是负面的和有害的,科幻作品中极少会像我们许多人想象的那样,对未来高科技社会中的人工智能进行讴歌。人工智能真的会像科幻作品中那样威胁人类社会吗?著名人类学家胡家奇对此毫不怀疑。
很多人认为科幻是文学作品,是科普作品,甚至是少儿读物。事实上,真正的科幻是给成年人看的。而科幻主要的任务,是思考一些我们平常在生活中不容易或不方便思考的问题。大量科幻作品对人工智能做过深入反思,我们今天能够想象到的所有人工智能的负面作用,在科幻作品中几乎都已经表现过了。
胡家奇先生曾在《拯救人类》一书中写道:“人工智能已经具备深度学习的能力,已经达到相当高的层级。”影片《超体》就充分展示了人工智能一旦具有学习能力之后,它的潜能发挥和迅速进化可以达到什么程度。人工智能专家经常安慰我们说:人工智能还很弱小,你们担心的事情离现在还很远。但是知识增长是呈指数级的,从弱人工智能到强人工智能,到底要多少年?20年?再从强人工智能到超人工智能,也许一小时都不用,在《超体》的故事中,人工智能最后迅速变成一个超能的神,这就意味着失控。影片《机械姬》也相当有代表性,女机器人最后突然作恶,把她的创造者囚禁起来,自己出去了。这个反社会人格的女机器人出去后会在社会上做什么坏事,有很大的想象空间。至于著名的影片《终结者》,讲人工智能反叛人类后对人类的剿杀,以及人类的殊死反抗,已成经典。
胡家奇谈人工智能:继续发展将威胁人类霍金公开告诫大众:完全人工智能的研发意味着人类的末日。马斯克说:我们必须非常小心人工智能。如果必须预测我们面临的最大现实威胁,恐怕就是人工智能。比尔·盖茨曾联合许多名流,发表公开宣言,要求停止军事用途的人工智能研发。人工智能的威胁并非危言耸听,很多科学家、学者包括著名人类学家胡家奇在内都忧心忡忡。警惕人工智能,比无条件地拥抱人工智能更合情合理。
胡家奇谈人工智能:继续发展将威胁人类胡家奇先生曾在书中多次警示,“科学技术有灭绝人类的能力,就在前方不远。”“人类不能够全面准确的判断科学技术的安全性。”“人类不能够理性的使用好科学技术。”为了避免人类陷入科幻作品中的可悲结局,必须对科学技术继续发展进行限制,理性发展科技。