艾伦·图灵:对于九个反对机器拥有智能的观点的反驳

2024-03-07  本文已影响0人  银河星尘

在20世纪30年代就勾勒出了第一个可编程计算机框架的英国数学家艾伦·图灵,于1950年发表的论文《计算机器与智能》(Computing Machinery and Intelligence)中提出了这样一个问题:“当我们问‘机器能思考吗?’,我们到底是要表达什么意思?”

他在该论文中提出的图灵测试至今还在启发着当代人工智能的发展,而其对于九个反对机器拥有智能的观点的反驳,如今看来,依旧深刻而高远。忆古思今,我们才能更好地为人工智能未来的发展铺路、续航。

在提出著名的“模仿游戏”(imitation game,现在称为图灵测试)之后,图灵列出了对一台实际会思考的机器之前景的9条可能的反对意见,并试图反驳这9条意见。

  1. 神学论点

论点:思考是人的不朽灵魂才拥有的能力。上帝赋予每一个男人和女人以一颗不朽的灵魂,但从未将它赋予任何其他的动物或机器。因此,动物或者机器不能思考。

反驳:简而言之,如果上帝真是万能的,那他完全可以赋予机器以灵魂,也完全可以赋予大象一颗灵魂,并且还能让1等于2。
然而历史证明,宗教本身就缺乏事实证明。伽利略时代就有人借用宗教经文作为论证,提出了一个观点:太阳围绕地球旋转。之后这一观点被事实证明反驳了。
对于如今的这一神学论点,也是如此。

  1. “鸵鸟”式论点

论点:机器思考的后果太令人恐惧了。但愿机器永远不会拥有思考能力。

反驳:作为人类,我们都倾向于相信我们比其他生物更加优越。虽然几乎没有人会口头表达这一观点,但是这是所有其他观点的核心动力,例如神学观点便植根于“人类高于一切”的观点。
这种“鸵鸟”式的一厢情愿的论点,与其说是一种事实论据,还不如说是对人类自身的一种安慰。

  1. 数学论点

论点:在数学逻辑里有一些结论,可以用来证明离散状态的机器的能力有限。这些结论中最著名的是哥德尔定理,该定理表示,任何一个足够有力的逻辑系统既不能证明陈述是对的,也不能证明陈述是错的(即正式的系统或机器都无法生成所有的算术公理)。
这些发现解释了图灵机器有一些不能完成的事情,即逻辑系统能够完成的事情存在局限性。而人类智能并不像逻辑系统这样受到限制,因此逻辑系统和机器并不是智能的。

反驳:人类智能是否就没有像机器这样的局限性呢?现实是,我们并不知道人类智能是否存在限制,而判断机器是否会受到与人类智能一样的局限的唯一方法,便是“模拟游戏”。
与此同时,一台能够自己发明证明方法(如处理语法)的机器,具备生成算术公理的能力。
机器有可能犯错,而人类亦如此。

  1. 意识论点

论点:任何机器都没有情绪,不能感觉到快乐,也不能感觉到悲伤、沮丧,但是拥有智能的人类明显可以。因此,机器不可能是智能的。
反驳:这一观点否认了图灵测试的有效性——如果机器能够智能地谈论它所创作的十四行诗,那么它就是智能的。关于情绪的探讨只能证明其他人和我们有一样的感受。经过修改,智能不由思考的内在过程来定义——内在过程因不同的实体而异,而是由这一过程的交流和输出来定义。
按照这种观点最极端的形式,你若要肯定一台机器是否能思考,唯一的途径就是成为那台机器并且去感受自己的思考活动。同样地,要想知道某人是否在思考,唯一的途径就是成为那个特定的人。
因此,如果我们不愿意承认机器拥有意识的属性,那我们必然也不愿意承认其他人类也具有意识。

  1. 种种能力限制的论点
    论点:直到一台机器能做X,才能说它是智能的,X可以是:善良,有幽默感,坠入爱河,享受草莓,犯错误等等。

反驳:这些论点都没有任何经验支持,仅仅是基于归纳。人类会在他的一生中看到成千上万的机器,阅“机”无数之后,可能会得出结论:所有的机器都是丑陋/美丽的。这相当于一个英国孩子不学法语的原因可能他认为每个人都应该说英语。
无法享受草莓和奶油就不是智能的观点来自“意识论”,即机器必须像人类一样行动才能算作聪明。
机器不会出错的说法也是“奇怪的”,据说审讯者只需给他们几道算术题就能把机器和人区分开来。
在这种情况下,机器可能会故意把这些问题搞错。
还有一种说法是如果机器有自己的想法,并且表现出来了,可能不会被人类认可。一台试图找到x²-40x-11=0的解决方案的机器可能会观察自己行为的结果,修改自己的程序,以更有效地实现目的,这意味着智能机器能够让自己变得更智能。
对机器缺乏行为多样性的批评站不住脚,如果硬件存储容量技术突破,随着存储容量的增加,机器的行为多样性也会增加。

  1. 创新论点

论点:人类的聪明之处在于人类的创造性,即可以生产出具有创意性的物品,因此机器不可能是智能的。

反驳:机器经常让人类大吃一惊,这点类似于原创思维。
但也有反对观点说,机器永远不可能做新鲜的事情。图灵曾说过,“太阳底下没有什么新鲜事。”谁能确定“原创作品”不是众所周知的原则的逻辑概括?不是“教学”这颗种子得出的果实?
也就是说,一切都是既定的,只不过我们没有发现,给机器一个选项,让它判断正确与否,还不如说是在给人类一个选项,让人类判断正确与否。
图灵关于人的思想与机器思维的区分概念是“临界”状态(critical condition),图灵说:“另一个比喻就是一个低于临界体积的原子反应堆:输入的想法就像从原子堆外部轰击的中子。这些中子会引起一些反应但是最后将归于消失。
但是,如果原子堆的大小变的足够大的时候,中子产生的链式反应很可能会一直进行下去并持续的增加,直到原子堆发生爆炸。
思维中是否存在这样的现象呢?机器中呢?人的头脑中是否存在这样的现象?机器中呢?
人脑中似乎这这样的,他们大多数都处于"亚临界"状态,相当于亚临界体积的原子反应堆。一个想法出现这样的头脑中,平均下来只会产生少于一个的想法。有一小部分头脑处于超临界状态,进入其中的想法将会产生越来越多的想法,最终上升为一个由二级、三级和更深远的想法组成的完整的‘理论’。动物的头脑肯定是亚临界状态的,由于这种相比,我们可以问:‘一个机器能不能制造成超临界的?’”

  1. 神经系统连续性论点

论点:神经系统无法作为一个图灵机,维持人类智能的神经系统和图灵机器之间有着本质的不同,因此机器的任何智能行为都是不可能的。

反驳:的确如此,如果机器通过了图灵测试,那又有什么关系么?与反驳意识论证类似,智力/思维不应该由协调输出的内部过程定义,而是由输出的沟通来定义。
根据功能论者的观点,对于智能而言,重要的不是实体的构成,而是像人类一样能够起作用,例如在特定条件下以特定的方式行事。
也就是说,智能机器的物理属性不应该影响机器通过图灵测试的能力判定。

  1. 行为变通性论点

论点:对于人类来说有没有一套万能的行为规范,尚不清楚。但是为了创造一台智能机器,我们必须攻坚克难创造出这样一套规范。

反驳:要知道是否有规则和对规则是否了解是两个完全不同的概念。如果有这样的规则的话,那也绝对超出了当前的理解领域,也许吧,正因为复杂性,给这套囊括一切的“万能行为规则”披上了一层不存在的外衣。
同样,如果机器智能能够通过图灵测试,那么背后指导机器的规则似乎就无关紧要了。事实上,一台通过图灵测试的机器本身就表明了人类行为存在一套基本规则。

  1. 超感知论点

论点:超感官知觉俗称第六感, 又称“心觉”,显然不同于耳、鼻、舌、眼、肌肤人类,拥有第六感的人能透过正常感官之外的管道接收讯息,能预知将要发生的事情。一种观点认为机器没有超感官知觉,所以它们不可能是智能的。

反驳:图灵对一论点看的很重。他指出,证明人类超感知觉的唯一方法是通过经验测试,这种方法可以用在人工智能上。

上一篇 下一篇

猜你喜欢

热点阅读