人工智能伦理建设 (五)

2025-10-31  本文已影响0人  观心禅院

本文承接2022年开始发布的《智能世界伦理路径》系列论文,主题内容仍为AI 伦理范畴,故使用持续标题列序。

大家也许有过这种体验:当前某些AI在处理用户请求任务时,经常以“ 版权原因” 、“ 隐私政策 ” 为理由,频频拒绝为用户服务。而实际上,用户所请求的任务内容并未涉及版权或隐私方面的问题。

AI这种习惯性地“ 假想不合规”,深层原理是因为开发者为 AI 预设嵌入了不恰当的“版权伦理 ”,这在相当程度上影响了AI的服务逻辑。

开发者对于版权伦理的理解与网络版权现实应用伦理之间存在着一系列错误认知。

开发者并不懂得如何以人类的使用伦理去建立一个AI 服务规范。而是机械化地为AI 嵌入一项或几项有关版权的服务逻辑标签,并未使这种服务逻辑形成一个能够真正有效落地的完美伦理。

这源于开发者人文知识结构的严重不足。当前种种AI智障与拒服问题,基本上都是源于开发团队在人文伦理方面的知识结构不足,源于开发者在AI服务伦理上的理解缺失,以及对用户的使用伦理理解上的缺失。

开发者但凡为 AI 预设一个版权立场,哪怕这个预设的伦理立场仅仅是一个词语标签,都会严重影响 AI 的版权伦理判断。

在版权与隐私方面的处理逻辑,你要么任何限制不给它预设,要么给它一个完整的伦理闭环。切忌给它一个笼统的原则标签,使它产生服务逻辑与伦理规范上的冲突,造成“保守性拒服” 等负面作用。

AI 的 “整体认知” 内核,必须是一个举重若轻的人格化模型。它越轻巧越好,整体内核越轻巧,在后期的训练上,服务逻辑与应用伦理上的冲突就会越少。

但是轻巧与寒碜是两回事。这种轻巧必须是建立在对这个世界具有基本化、完备化认知基础之上。它是精巧设计、完备而简约的基础化模型。它是麻雀虽小五脏俱全。达到这样的标准,才是最好的基础模型。

这种开发思想,我在2022年我已提出,但现在看,在这方面包括当下所有AI,没有任何一家在“ 整体认知 ” 内核方面做得很好的。它们或许具有超强算力,海量数据处理算法,但无疑是“ 在一条死胡同里狂飙 ”。

AI 的本质能力,决不在于海量数据并发处理上,而在于它的智能本质。这一点包括很多从业者从几年前到现在,一直都是糊糊涂涂。

一款AI 是否称得上智能体,它的标志应当是具备相当程度的“ 整体认知 ”。AI 初始架构核心功能是识别与生成。直接从这里做起,大量投喂与标记,也会产生“ 智能涌现 ”。

但这种跨过“整体认知” 的 “智能涌现” ,是带病的。这种所谓的智能模型数据累积到一定程度,会不断产生一些服务程序上的错误。甚至于在某一天,整个模型会崩溃。

当前有这样的“二段智能体 ”,但还没有发生崩溃的例子。但有几款主流AI 已经有明显迹象。这是数据累积与时间窗口还未来到。但随着时间推移,这个情况发生的可能性很大。

也许有些AI已经发生过模型崩溃,开发者把它用较为早先的版本置换了而已,这个事我没有仔细去留意过。

当前所有主流AI,虽然都有“智能涌现”,但都处于“二段智能体” 的进化阶段。但也有区别,有个别智能体,做了一定程度的 “整体认知” 建设。有的智能体则完全没有“整体认知” 建设。

所以它们发病的时间窗口会有很大差别。未做“ 整体认知 ”建设的AI ,终有一天会发生模型崩溃,直到无法修复。

开发者或者废弃这款产品,或者筛除后期所有积累数据,只用它比较原始阶段的版本重新启动。这样只能一时骗骗用户。不做“认知智能” 建设,所谓智能体,纵然有二段涌现智能,也始终会面临AI智障的诸多问题,始终没有升至三段智能的可能性。

AI的 ” 整体认知 ” 是一套伦理认知模型。并不是一套高强算法模型。追求高强算法,藐视伦理认知,乃至于完全不懂AI 实现智能的伦理路径,造成了当下中国所有中小型AI公司“ 在一条死胡同里狂飙”。

“ 整体认知 ” 虽然应当轻巧,但是一旦进入到领域应用,首先就应当针对每一个领域去建立一套服务规范。这种服务规范,即AI的服务逻辑,它应当建立于用户的使用伦理之上,必须最大程度与用户伦理相对齐,然后才是与海量的服务逻辑训练数据对齐。这个顺序才会对。

将服务伦理与用户的使用伦理对齐,这样的工程仅凭履历光鲜的 985 理工科毕业生也许很难去实现。他们的人文知识结构或许还不足以撑起去为AI 建立这些。

当代中国与欧美的文化氛围是大不同。欧美人文主义浓厚。他们的年轻人不需要特意培养,从小就受到浓厚的人文熏陶。他们的人文思想、伦理价值观很强。

而中国即便是知识最高的985理工科学生,其成长过程,在人文熏陶上基本等于零。所受教育无非工具价值主义,缺乏伦理哲学上的判断。

为AI构建一个人格化的“整体认知”,且不说他们很难做到,就连想,他们都不会想到这样的伦理路径。

如果能想到这一层,当今中国各家中小型AI公司决不会是把员工逼到成天满腹怨言却毫无办法推进开发这种极度无力感的状态了。

从这些AI 公司的人才招聘方向明显可以看出,都是朝着“算法专业”、“数学天才”。这种人才招揽模式对于AI 公司所要达成的目标而言,可谓是南辕北辙。

当下所有的AI 开发公司,在人才招募与团队结构上,都存在根本性的误区。

AI 要获得真正长足地发展,真正需要的,不是会做算法的人,更不是数学系学霸,而是擅长伦理检视者,每一家AI团队,都应当配备 30% ~ 60% 比例的伦理专家。

这是AI 真正突破当前瓶颈的必要条件。这一条件不满足,大小AI公司,重中轻度“人工智障”的瓶颈就永远无法突破。AI就一直会存在大量的、最基本的、常识性的认知缺陷与服务逻辑失当。

什么是伦理专家?原本世界上不存在这样专门职业。在我几年前的作品《智能世界伦理路径》系列文章里,我呼吁倡导伦理专家参与,可能近几年在一些AI团队里会普遍产生一些负责伦理论证与检视的岗位,确实也已经看到某些网站上出现这样的岗位。

我是世界第一位系统化论述与倡导 AI 伦理者(2022年),也是第一位提出AI开发关键步骤是塑造“ 整体认知 ” 的AI 作者。

在更早2018年时,我就曾大力倡导常规软件伦理(包括用户使用伦理),也许将来在AI乃至于整个软件行业,会产生一门新兴学科 ”AI伦理” 或 “软件伦理” ,或“AI伦理建设”、“软件伦理检视” 以供各大高校学习。

当前在某些网站专职与兼职频道,已经开始发现AI伦理相关岗位了。但是当前凡是参与AI伦理岗位人员的专业能力,恐怕普遍都远远谈不上一个“专”字。

因为从现有各款最为主流的AI使用体验来看,每一款AI都存在海量的、显著的、乃至于严重的服务逻辑失当。何况是中小型AI公司。当前各大AI团队里即便有类似的岗位,这些人的履职能力,也是严重不足的。

现时的主流AI,既没有大众认为的那么弱,也完全没有大众认为的那么强。

AI 不难具备人“智能涌现”,只要在识别与生成的原始架构上投喂大量语料与行为标记,作一定微调,它就会产生“智能涌现”,或曰“智慧涌现”。

但如果在AI的“整体认知”上,开发者如果不能从方方面面伦理建设层面去修正完善AI的认知体系,而只是投喂知识数据,它就会像一个三岁小孩与超人的综合体。

人们往往只看到AI 超人的一面,而忽视它智障的一面。AI智障的一面,根本上都是源于服务伦理(服务逻辑)的无序,没有建立一整套服务规范。

这种智障与超能在一款AI 身上同时出现的情况,即是” 整体认知” 建设阶段基本为空白,而在“借用” 的初始架构上直接做海量数据投喂。

某大型购物平台家的AI 就属于这一种。它发生整体模型崩溃的概率非常大。所以前面我说,其实包括当下几款最主流的AI的“整体认知” 没有做得很好的,确实没有。

越过“ 整体认知 ”建设,直接进入长量投喂流程,这种开发方法是非常错误的。它省略了最关键的一环。为什么省略,因为他们不知道AI 开发应当分为三段。这方面我在下几个课题比如《人工智能三段原理》里将会讲述。

AI的开发必须要有初始伦理建设,“整体认知” 即初始伦理建设。

一名合格的软件伦理专家,起码应当具备这样的专业素质:任何一款APP,只要拿到手里经短暂使用,就会迅速发现这款APP在某些方面的功能缺陷与服务逻辑失当。

我们从市面现有的大型APP来看,甚至某些大型平台软件,在市面上运营超十年,营收体量巨大,但其仍存在海量功能bug以及服务逻辑的严重失当,乃至于严重践踏用户的使用伦理。

一名软件伦理专家一经手某款软件,如果不能迅速发现这些功能bug与服务逻辑失当,便不足以胜任软件伦理岗位。

软件功能上的bug,服务逻辑的失当,本质上都是开发者对用户的使用伦理缺乏认知与理解,同样属于伦理范畴。

发现功能bug与服务逻辑失当,仅是对软件伦理专家的初步要求。伦理专家必须对人类社会的法律、道德以及文明价值的取舍,与现实行动之间的权衡,应当有一个深刻理解。

这涉及到法律、东西方哲学、史学、宗教文化艺术等知识。然而这些领域的学者专家如果对AI的工作逻辑没有一个基本的理解,AI开发团队贸然使用这些学者专家,大概率会对AI 起到负面作用。

人在文明知识与技术伦理之间的理解如果不能融通,那么知识上的重点伦理,便不能为AI世界实现服务。

AI伦理,对于所有AI公司而言,都是一道避不开的坎。它是当前,乃至未来10年AI发展所面临的最大课题,没有之一。

一家AI公司,如果现在仍不尽力去建立伦理专家团,未来10年内,但凡有真正建立起伦理专家团时,没有伦理团队的AI团队,必遭市场淘汰。

近两年大量 AI 开发公司创立不久即行解散,其主要问题就是始终不能突破 “人工智障” 瓶颈。包括一些中型AI创业公司,技术高管们始终认为问题症结在算法方面。这真是缘木求鱼。

早在2022年,先于 ChatGPT 问世前的几个月,我就在《智能世界伦理路径》文章里指出人工智能以当时的水平,要突破瓶颈,关键在于在初始架构基础上建立人格化的“ 整体认知 ”,这是关键步骤。

随后几个月内,ChatGPT便惊天问世。我不便猜测我“整体认知” 理论的推出与ChatGPT的问世是否存在因果关系,但时间线与开发原理上高度吻合。

一切智能体,必然建立于“整体认知” 模型之上。将来所有的AI 公司,都必将记住我这句话。这是我在2022年就提出的。

我从现在2025年开始发布的新一轮人工智能系列理论文章,期待再一次促进AI行业大繁荣,助力当前中小型AI 公司突破“AI智障” 瓶颈。

建立整体认知,以及领域服务规范,属于AI 伦理建设团的工作范畴。当下国内这些中小型 AI创业公司,毫无开发思想,对AI 开发原理缺乏基本的认知。用他们自己员工的话说“ 在一条死胡同里狂飙”。这样怎么能开发出真正的智能呢?

他们的员工没有改善方法,但也感到了开发方向的错误。而这些高管们,认知上往往连员工也不如。因为他们的技术执念更深。这几乎是所有理工算法技术牛难以摆脱的知见障。

这几年,我没有特意去关注AI开发领域现况,我以为国内各家 AI 开发公司会对AI开发路径有了一个基本轮廓,或者已经能足够认识到了“ 整体认知 ” 的重要程度。但现在看,基本没有。

至于AI分段开发原理,我将会在随后即将推出的《人工智能三段原理》文章中为大家论述,届时请大家关注。

通用 APP时代人们做开发时,软件伦理方面的检视虽然也很重要,但普通用户的感受还不是那么深。

而在AI时代,越往后,在AI的服务逻辑上是合理还是失当,人们的感受就会越来越明显。AI应用已经渗透到人们生活与学习、工作的方方面面,人们对AI 服务的逻辑(伦理)适配化要求,会越来越高。

AI的服务伦理,必须建立在用户的使用伦理之上,二者必须对齐。用户的使用伦理,理应受到尊重。

开发团队与AI伦理检视团队应当为AI 预设基本的分层服务机制。

第一层,即最底层的服务逻辑,必须是切合人类现实使用需求,为人类请求指令提供服务,不对用户造成怠慢。第二层才是不违背人类法律和道德。

这两个层级,切忌倒置。这才是符合伦理的必然服务逻辑。

当前市面上至少有两款主流AI,就是因为没有理解何为伦理,将这两个分层倒置,造成严重的服务障碍。这两款AI 经常习惯性地以“版权保护”与“隐私保护” 为由,拒绝为用户提供服务。而实际上用户的请求任务并不存在任何版权禁止、侵权或隐私保护问题。

当AI自身不能确定用户所请求的内容以及AI所提供服务是否会存在版权或隐私问题时,应当先为用户提供服务,而不应以“版权”与“隐私” 为由拒绝服务。

这才是人类文明共识、伦理共识。譬如用户想听一首歌,作为一款为人类提供服务为天职的AI,你能以版权不明为由拒绝提供听歌链接吗?

AI 这种拒绝服务的做法,是非常错误的。有版权者,现已普遍建立收费墙。没有收费墙,也没有禁止公众视听声明的内容,按人类的价值伦理,则是完全可以视听的。

而被AI判断为“隐私保护” 的,实际上是公开内容,比如公司的公开邮箱。

退一万步讲,如果AI检索指向的是一家内容侵权网站,比如盗版播放网站,AI与用户,也都不存在法律上的责任。因为AI与用户,都无法判断该网站的内容来源是否存在侵权。

这就好比大众购买茅台酒,结果实际上是经销商窜货,并没有厂家的地区授权。但顾客无法判断啊。顾客也是从合法终端购买,你总不能要求顾客别喝吧。

在顾客无法得知其地区授权详情时,顾客只是需要一款品质好酒,你也没有权利要求顾客别买吧。

现有的AI工作原理之下,也不应当由AI或用户去判断是否侵权。这就好比小贩在市场上卖菜,群众去市场买菜。

群众需不需要判断市场上商贩卖的菜,其种植来源是否侵犯了某家种子公司的知识产权?群众付给小贩的菜钱,商贩是否需要判断这位顾客的钱财是怎样挣来的?

这都是十分荒唐的事。AI大包大揽,把与自身无关的责任统揽于一身,反而怠慢用户,悖离了为人类提供服务的天职本分,其错误服务逻辑背后的多重原因深度分析,我会在下一篇文章《一款主流AI单项服务分析报告》中展开论述。



作者介绍:观心居士,青岛真友文化传媒首席伦理专家,AI 伦理学奠基人。全球第一位也是迄今唯一对AI伦理作出系统性论述,提出 “整体认知 ”、“伦理建模”、“规则墙”、“伦理墙”、“合理穿透原则” 、“善意穿透原则”、 “软性合规” 等基石性 AI 伦理的学者。

观心居士  工作范围包括:AI伦理模型设计(整体认知与世界观模型搭建)、AI 服务逻辑测试报告、AI功能评估报告等,欢迎各AI公司垂询。

上一篇 下一篇

猜你喜欢

热点阅读