AI书籍

《AI 3.0》第一部分 07 确保价值观一致,构建值得信赖、有

2024-03-13  本文已影响0人  银河星尘

《AI 3.0》读书笔记
《AI 3.0》读书笔记 序1
《AI 3.0》读书笔记 序2
《AI 3.0》读书笔记 序3
《AI 3.0》读书笔记 译者序
《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工智能为何仍然无法超越人类智能01
《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工智能为何仍然无法超越人类智能02
《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工智能为何仍然无法超越人类智能03
《AI 3.0》读书笔记 第一部分 04 何人,何物,何时,何地,为何
《Ai 3.0》05 ConvNets和ImageNet,现代人工智能的基石
《AI 3.0》第一部分06 难以避免的长尾效应

07 确保价值观一致,构建值得信赖、有道德的人工智能

自动驾驶汽车的成功在很大程度上要归功于机器学习,特别是深度学习,尤其是汽车的计算机视觉和决策部分。我们如何判定这些汽车已经成功地学会了其所需掌握的所有知识?

机器学习正被应用在影响人类生活的多个领域的决策中,比如创建新闻源、诊断疾病、评估贷款申请,甚至给出监狱刑罚建议(但愿不要发生这样的事),当机器在做这些事时,我们如何保证它已经掌握了足够的知识,因而可以作为一个可信赖的决策制定者?

在人工智能今后的许多积极用途与对其可信度和可能被滥用的担忧之间做好权衡。

有益的人工智能,不断改善人类的生活

人工智能技术对一直在使用的许多服务都起到了核心作用,如语音转录、GPS导航和出行规划、垃圾邮件过滤、语言翻译、信用卡欺诈警报、书籍和音乐推荐、计算机病毒防护以及建筑物能源利用优化等。

DeepMind的联合创始人戴米斯·哈萨比斯,人工智能最重要的潜在好处是:

我们可能不得不清醒地认识到,由于这些问题可能太过复杂,即便由地球上最聪明的人来努力解决这些问题,单独的人类个体和科学家在有生之年都很难有足够的时间来取得足够的创新和进步……我的信念是,我们需要一些帮助,而我认为人工智能就是这一问题的解决方案。

人工智能大权衡:我们是该拥抱,还是谨慎

吴恩达曾乐观地宣称:“人工智能是新‘电能’。”他进一步解释道:“正如100年前电能几乎改变了所有行业一样,今天我真的很难想到有哪个行业在未来几年内是不会被人工智能改变的。”

人工智能大权衡(great AI trade-off)。

你是否会认为,到2030年,先进的人工智能和相关技术系统很有可能会增强人类能力并为人类赋能?也就是说,那时,大多数人在大多数时候会比今天生活得更好?还是说,先进的人工智能和相关技术系统很有可能会削减人类的自治权和代理权,使得那时大多数人的状况并不会比当前更好呢?

人脸识别的伦理困境

人工智能如何监管以及自我监管

人工智能的研究与开发应在多大程度上受到监管?又应该由谁来监管?

欧盟议会在2018年颁布了一项关于人工智能的法规,有些人称之为“解释权”。

智库

目前存在的一个障碍是:

创建有道德的机器

机器本身是否能够拥有自己的道德意识,并且足够完备以使它们能够独立做出道德决策而无须人类监管?

艾萨克·阿西莫夫(Isaac Asimov)“机器人三定律”
第一定律:机器人不得伤害人类个体,或者对人类个体将遭受的危险袖手旁观;
第二定律:机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外;
第三定律:机器人在不违反第一、第二定律的情况下,要尽可能地保护自己。

但实际上,阿西莫夫提出机器人三定律的目的是证明这套定律会不可避免地失败。
阿西莫夫在1942年首次提出这些定律时讲述了一个名为“逃跑”的故事:
如果一个机器人遵循第二定律向危险物质移动,这时第三定律将会生效,机器人随即远离该物质;此时第二定律又重新开始生效。
于是,机器人将被困在一个无尽的循环中,最终对机器人的人类主人造成了灾难性的后果。

阿西莫夫的故事通常集中讨论把伦理规则编程置入机器人后可能引发的意外后果。
阿西莫夫是有先见之明的:正如我们所看到的,不完整的规则和意外所引发的问题已经妨碍了所有基于规则的人工智能方法,道德推理也不例外。

科幻小说家亚瑟·克拉克(Arthur C. Clarke)在其1968年出版的《2001:太空漫游》中描写了一个类似的情节。
人工智能计算机HAL被编程为始终对人类保持诚实,但同时又要对人类宇航员隐瞒他们的太空任务的真实目的。与阿西莫夫的笨拙的机器人不同,HAL饱受这种认知失调的心理痛苦的折磨:“他意识到隐瞒真相与保持忠诚之间的这种冲突正在慢慢地破坏他的心智。”结果是,这种计算机“神经症”使HAL变成了一名杀手。

人工智能中所谓的价值一致性问题:
人工智能程序员面临的挑战是,如何确保人工智能系统的价值观与人类保持一致。可是,人类的价值观又是什么?假设存在社会共享的普世价值有任何意义吗?

电车难题

假设你正在沿着一组轨道驾驶一辆加速行驶的有轨电车,就在正前方,你看到有5名工人站在轨道中间,你踩刹车却发现它们不起作用。幸运的是,有一条通向右边的轨道支线,你可以把电车开到支线上,以免撞到那5名工人,但不幸的是,在支线轨道中间也站着1名工人。这时候,你面临一个两难的选择:如果你什么都不做,电车就会直接撞到5名工人身上;如果你把电车开向右边,电车就会撞死1名工人。从道德上讲,你应该怎么做?
多数人认为,从道德上来说更可取的做法是:司机把电车开到支线上,杀死1名工人,救下另外5名工人。后来,哲学家们发现:对本质上相同的困境选取一个不同的框架,就会导致人们给出相反的答案。事实证明,人类在关于道德困境的推理中,对困境的呈现方式是非常敏感的。

自动驾驶汽车的电车难题

自动驾驶汽车牺牲1名乘客还是杀死10名行人

在赋予计算机“道德智能”方面的进展不能与其他类型智能的进展分开,真正的挑战是创造出能够真正理解它们所面临的场景的机器。

正如阿西莫夫的故事所阐明的:除非机器人能够理解不同场景下伤害的内涵,否则它无法可靠地执行避免伤害人类的命令。

对道德进行推理要求人们认识到原因和结果的关系,想象可能的不同未来,了解其他人的信念和目标,并预测一个人处在各种情况下会采取的各种行动的可能结果。换句话说,可信任的道德理性的一个先决条件是通用的常识,而这,正如我们所见,即使在当今最好的人工智能系统中也是缺失的。

在庞大的数据集上训练的DNN(deep neural network,深度神经网络)如何在特定任务上与人类的视觉能力相媲美;
网络的弱点,包括它们对大量人类标记数据的依赖,以及它们以非人类的方式失败的倾向。

我们如何才能创造出一个真正能靠自己进行学习的人工智能系统——一个更值得信赖的系统,一个和人类一样,可以对其所面临的情况进行推理并对未来进行规划的系统?

07 “新机器人三定律”

1.有用的人工智能
在考虑人工智能在我们社会中的作用时,我们很容易把注意力集中在不利的一面,但是,有必要记住,人工智能系统已经为社会带来了巨大好处,并且它们有潜力发挥更大的作用。
2.可解释的人工智能
在人工智能“自动决策制定”的情况下,任何一个影响公民的决策都需要提供其中所涉及的与逻辑有关的有意义信息,并且这些信息需要使用清晰明了的语言,以简洁、透明、易懂和易于访问的形式来沟通和传达,这打开了有关解释问题的闸门。
3.可信的人工智能
在赋予计算机“道德智能”方面的进展不能与其他类型智能的进展分开,真正的挑战是创造出能够真正理解它们所面临的场景的机器。换句话说,可信任的道德理性的一个先决条件是通用的常识,而这,正如我们所见,即使在当今最好的人工智能系统中也是缺失的。

上一篇 下一篇

猜你喜欢

热点阅读