用哲学理解技术(二)?:AI是否会拥有自我意识
那么如果ai的能力足够强、或者数据足够丰富,是否可以完全的理解人类呢?
从当前的AI技术上,并看不到这样的可能。
先看一下AI是如何进行认知的。拿一个杯子和一个碗来说,如果从模型上看,AI很有可能会判断他们是一样的东西,因为形状和用途都非常接近。但是当引入一些新数据后,比如碗和杯子里装的东西。那么它就可以根据这个变化,对两者进行区别。与之对比,人类是从使用功能更方便的角度,去区分两者的,但这个判断逻辑没有办法用数据进行表达,就像一个永恒的边界问题,当杯口扩展到多大时你会认为这变成了一个碗呢?当拔掉多少根头发之后,才认为一个人秃顶呢?
当前AI对事物的认知,是依赖数据纬度的,是根据已知的结果和环境反馈获得的,当环境反馈缺乏标准,AI通过数据相关性表现出来的逻辑性就彻底消失了。
所以实质上AI并不存在认知,它给出的内容对其本身也毫无意义,意义是由人类自己解读出来的。就好比用AI写古诗,可以让遣词造句“险”、“奇”无比,因为鲜有人如此排列文字,但最终这首诗如何被评价,是由读诗的人进行解读。
由此对人与AI的“认知”方式进行对比,有些相似之处,更有关键的差异。
“Umuntu ngumuntu ngabantu” 是一句祖鲁人的格言,直译为“人要经由他人才能成其为人”。
也就是说,人对于与“我”的认知,是建立在与其他人对比产生的结果上的;而“我”的形成也可以说是个体与环境交互的过程与结果。
比如你的口音,依赖于周围人的口音,而你也成为了这样口音的传播者;你对礼仪的认知,取决于周围人对你的行为和评价,而你对这样行为的学习加深了礼仪的重要性;你依赖微信进行社交,取决于周围人对微信的依赖,而你们又共同构成了新用户的依赖。
暂且不去看由生物基因带来的突变和意外,从人类集体的行为模式上,与AI在理解的过程上其实极为相似:都是基于环境已经存在的结果学习,再根据反馈纠正自身的行为。
任何发展与进步都很难脱离集体的协作体系,无论是古代的宗教文明,还是现代的科技文明,又或是未来的数字文明,虽然知识体系、认知模式都有了重大的变化,但生产力发展的路径依然是清晰的。
但人类与AI最大的区别就在于,在人类理解世界的闭环里,并不仅仅是被环境同化,更会进行许多“多余”的反思,并付诸于行动。
“我”被环境所教育,却又同时构成环境这个过程,可以被定义为“他我”;“我”经过认知、反思、抽象等行为,超越“他我”,形成了新的逻辑,就形成了“自我”。而人类基因的群居性和协作的需要,又会驱动个体去寻找“自我”的认同,或推广“自我”的理念,这就构成人类脱离自身圈层,并对环境进行选择和改造。
这种超越环境本身赋予你的意义,并创造新的价值的能力,可能才是人类的“自我意识”。
当前的AI技术,在理解环境这部分,或者说对相似性的识别能力上,已经非常强大了,但或许也仅此而已,如果希望ai与人类产生创造性的对话,不只是发明一个学习套路的聊天机器人。就需要让AI的认知能力超越环境本身——或者说,拥有脱离人类赋予意义之外的冗余思考。
于是“天网”控制互联网,机器人统治世界。
可以说各种科幻题材的文艺创作都把这样的未来描述地悲惨绝伦,在这样的潜移默化下,人类世界的技术演进路线或许并不允许AI获得自我意识,但是另一种可能性也同样有趣。
那就是把理解人类的能力做到极致,最终实现让所有人类个体的认知都集中在一起。
简单说就是可以快速接受和沉淀任何个体的知识,并依此与另外的人类个体发生对话,人类的意识并没有被统一,但是知识积累在一起,就成了人类的合力,与漫威电影里的“至高智慧”是不是颇有相似之处呢?
同时我们也需要借着这样的思考反思自身:假设未来工具会把环境赋予的意义做到极致,同时人类间的协作不再需要人来作为粘合剂,那么原本作为人类集体中的“螺丝钉”还剩余了什么样的价值呢?
面向未来的这种可能性,是否又需要反思,当前的“我”作为一个独立个体,如果只是很好地完成了集体赋予我的意义,与未来的工具又有什么区别呢?