高韬:喂错的聊天机器人胡说也正常
最近,网络上晒各种与chatGPT 等AI 机器人聊天记录的信息成山。
机器人呈现出相当地整合能力让人惊奇之际,有用户在聊天时发现,这些聊天机器人生成的信息有时并不准确,具有误导性,甚至让人“胡来”。这让部分人担心它已经可以自主感知世界,自我意识已经觉醒。
一位谷歌的专家表示:“它不可能有自我意识。AI研发者们倾向于让这些人工智能的语气和用词看起来像人类,但他们绝非拥有人类的创造力。聊天机器人之所以会‘胡说八道’,那是因为它学习的资源来源于网络。互联网上什么奇奇怪怪的信息没有?”
除了微软,其他科技企业也在加紧研发此类聊天机器人,这也包括被惊醒的一批中国企业。但现在技术还不够完备,机器人有时并不可控。
神经品牌学家高韬也表示:“chatGPT 等聊天机器人不可能有自我,多数人都不知道自我是什么,更不知道它在大脑的什么部位,它的主要表现形式是什么。当人类对自我的概念不清楚时,何谈自我意识?自我潜意识所在大脑经过近五亿年的漫长进化,它是人类大脑最神秘最高效的地方,人类却对之知之很少,怎么可能教会机器人有自我呢?如果有,那将是很遥远的事。”
高韬同时也表达了对人工智能的担忧:
“目前chatGPT 等聊天机器人的信源主要是互联网上公开的信息,但是网络信息只是信息社会中的信息海洋中的一部分,而且大部分没有免费公开的信息更多是真知。可怕的是作为主要信源的网络更是信息垃圾的海洋,以此为源泉喂大的人工智能机器人胡说八道的可能性相当地大。轻信它会坏了你的事儿,让你在错误的方向上越走越远。”
高韬接着说:“当然,工程师们也可以让 AI 不停地读书,但是图书市场同样存在文化垃圾,基本是非分明的自然科学还好,而社会科学与艺术就难办了,连人类都难以辨别对错好坏,何况 AI 了。所以标准,即算法是关键,但算法的标准呢?不要忘了真理掌握在少数人手里。众即乌合之众。”