【专业】盲视 | 人工智能真的需要意识吗?
喜欢我的文字,请关注同名公众号:郭老师的读书随想。
编者按
本文是由组里已毕业同学finghin(笔名)所作。目前finghin同学供职于百度公司,从事深度学习算法方面的工作。本文观点仅代表作者个人观点。
科幻作品现在我很少读,大学期间迷过一阵倪匡。当然,如果你觉着倪匡的东西算是科幻类的话。印象中上一本读过的科幻作品是三体,还只看了一部,没看完。太硬核的东西从没敢碰过。
想要回答本篇书评题目上的问题,个人认为,取决于我们如何定义计算机的智能,取决于我们要求计算机要做到什么。我们应该要求计算机按照人类的模式做人类可以做的所有事情,还是按照人类的模式做人类可以做的部分事情,还是在人类可控的范围内按照机器的模式做人类可以做的部分事情,还是在人类不可控的范围内按照机器的模式做人类可以做的部分事情。这个问题,每个学者、每个流派有自己的答案。而这个问题的思考可以帮忙我们更好地理解人工智能领域的历史、发展、现状和未来。
当然,这些问题是给圈里人准备的。圈外的朋友单纯把它当做是一部硬核科幻作品,我想,也会有奇妙的体验。
类别:专业
书名:盲视
作者:彼得·沃茨
(图片来自互联网)内容简介
《盲视》中,发达的技术能满足人类的一切需求,还为他们制造出完美的幻境,让他们沉浸其中。渐渐地,他们彻底丧失了与现实的一切联系。人类在死亡。但新人类在崛起——吸血鬼基因的人、多个意识并存于一个身体的组合人、任何时候都能保持绝对客观的人……以正常人的标准,他们是绝对的怪物,甚至不太能够称之为“人”。但是,当外星人现身太空、普通人浑浑噩噩的时候,正是这帮畸人挺身而出,努力拯救我们的世界。他们所面对的外星人对手神秘莫测,不可理喻。一次次强硬的试探性交流,最终不可避免地引爆了毁灭性的决战。(摘自豆瓣读书)
作者简介
(图片来自互联网)彼得·沃茨,加拿大著名硬科幻小说家,同时也是一位专攻海洋哺乳动物的生物学家。2000年发表科幻长篇处女作《海星》,之后完成续作并整合为"裂缝三部曲"(Rifters trilogy)。由于其过硬的科学背景,"裂缝三部曲"也成为硬科幻的代表,奠定了作者在当代科幻小说界的地位。十余年来,彼得·沃茨曾多次入围并获得科幻界重要奖项:2000年,"裂缝三部曲"第一部《海星》入围约翰·坎贝尔奖;2007年,长篇小说《盲视》入围雨果奖、轨迹奖;2010年,《岛》荣获雨果奖最佳短中篇;2011年,《怪形》荣获轨迹奖最佳短篇、入围雨果奖最佳短篇。(摘自豆瓣读书)
正文·盲视
这是一篇由某种自动化机制生成的文章。
盲视(彼得·沃茨著)是一篇中篇科幻小说,并不推荐大家强行读原文,因为它不仅行文晦涩,还穿插着各种回忆和与主线剧情看起来没那么相关的片段——虽然和大结局是相关的。对于非硬科幻爱好者来说,有些过于硬核了。
“盲视”这个词,指的是由于某些脑功能障碍,视力系统并无生理问题的人看不到东西了。大脑接收了眼睛传来的神经信号,却不知道怎样去使用他们。但人们还是试图用其他方式做出反应,仿佛“看到了”一样。“脑干永远不会完全消失”。“想象你站在路上,突然眼前一片漆黑,但你就是觉得应该向左移动两米,你动了,一秒钟之后,一辆卡车从你刚才站的地方飞驰而过(摘自知乎)”。整篇小说探讨的问题是:“「自主意识」是否真的是一个智能体不可或缺的部分”。小说的结论是否定的。
人类的自主意识?
事实上对于现实中的人类,已经有研究表明人类的自主意识可能不存在,即使存在,也更类似事后追认而非事先动念:头戴脑电采集装置的被试者,被要求在任何自己想动手指的时候,移动自己的手指。结果是被试者意识到自己想动手指的时间,比大脑决定要动手指的时间,晚了0.2秒。这说明该行为并非出于自主考虑,而是已经无意识地、非自主地发生了。近年来有一些更精细的实验,发现从“身体决定行动”到“意识到自己要行动”,之间相差可能有10秒。
有一些更普遍的例子,佐证着意识可能没有那么重要。如果刻意挪动左脚和右脚,我们走路会非常别扭;如果让钢琴师思考自己是如何按键的,他可能无法再演奏音乐;让一个掌握了键盘盲打的人思考打字时自己每根手指应该如何敲击键盘,他打字速度大概会降低90%。在中学时语文老师告诉我们,考试拿到卷子先看作文题,然后再回到全卷第一题开始作答。这样等你写作文的时候,你已经在潜意识对这个作文题目里完成了几十分钟的思考,下笔会更快。有更多灵光一现的故事,都是在梦境里发生的(比如众所周知的苯结构式的发现)。
自主意识不是人工智能的必备组件
着手写这篇读后感的灵感,大概源于一个月以前,和郭老师在朋友圈里闲聊到的一个段子。那是一条讨论人工智能是不是真的“智能”的朋友圈,我在底下回:“能下赢柯洁的AI不是AI,输给人类却恼羞成怒把人电死的,才是(符合公众认知的)AI”,也有学弟说“AI下棋能赢柯洁,但它不知道自己在下棋”。
实际上,“AI是否知道自己在下棋”,可能并不重要。想象一个来自未来的智能音箱,它的音调音色像人类,遣词造句也像人类,也会表现出类似人类的情感波动和抑扬顿挫,它也能根据我们的指令完成各种复杂的任务,比如饭店订座、智能导航,甚至只是单纯的安慰和聊天。这个时候,它是AI还是人类,它“是否知道自己输出语句的意义”,还重要吗?这样的日子并不远,就在我们身边——Google翻译,显然翻译工具不可能理解我们输入语句的“意义”,但这不影响它输出合理的翻译结果。而最新的研究成果GPT-3,甚至可以根据自然语言描述的需求,输出对应的shell指令。
这是一篇由某种自动化机制生成的文章
作为一个半瓶水晃荡的AI从业者,我完全赞同“现在的人工智能,不是真正的智能”这句话。是的,现在各种让人眼花缭乱的人工智能模型,都绕不开“曲线拟合”和“概率统计”。实践中我们不把这些技术称作智能,而是看作玄学——一个方法对特定任务有效,对另一个任务可能不那么有效;一个方法有效,换了一批数据就不再有效了。但这可能只代表着“人类是更好的曲线拟合器”。GPT-3模型告诉我们,现有的机器学习技术足以产生通过图灵测试的AI模型,只要加大模型,再加数据,力量够大板砖也能上天。
那么,问题就从“质”变成了“量”。诚然,技术还有很大的改进空间,比如训练好的AlphaGo只能下围棋,不会开车。但这不妨碍我们再训练一个会开车的AI。即面对一些难以明确规则化的问题,我们至少有了一些解决方法,哪怕它们不够完美,但是是可用的。现在,我们在图灵测试时,判断依据可能已经不是常识,而是“现有数据量和算力能不能支持模型做到这个效果”。
作为读者的你,如何说服自己,这不是一篇由某种自动化机制生成的文章?
作者:finghin
喜欢我的文字,请关注同名公众号:郭老师的读书随想。