大数据,机器学习,人工智能大数据 爬虫Python AI Sql人工智能/模式识别/机器学习精华专题

如何让AI成为一种善的力量

2018-09-05  本文已影响3人  智能观

人工智能(AI)不仅是一项需要监管的新技术,也是一股强大的力量,正在重塑日常实践、个人和专业互动以及环境。为了人类的福祉,将这种力量变成一种善的力量至关重要。在这一过程中,伦理扮演了关键角色,它确保人们在降低风险的同时,发挥人工智能的潜力。

人工智能可以通过多种方式定义。如果把它的定义搞错了,那么关于人工智能伦理挑战的任何评估,说好听点是科幻小说,说难听点就是一种不负责任的消遣,比如有关奇点的辩论。

一种科学合理的方法是借鉴它的经典定义,即利用交互式、自主、自学机构日益增长的资源,使计算工件能够执行任务,执行那种需要人类智能才能完成的任务。然后,人工智能还可以根据其所依赖的计算模型或技术体系结构等特征,进一步定义。但当涉及伦理和政策相关问题时,上述进一步定义的内容是不必要的。

一方面,人工智能受到数据的推动,因此面临着与数据治理相关的伦理挑战,包括是否允许、所有权和隐私。这些数据方面的挑战可能因人工智能而增多,但即使没有人工智能也会发生。另一方面,人工智能是一种独立的自主学习机构,因此其伦理挑战也是独特的,而这是本文探讨的重点。

关于人工智能作为一种新的代理形式的伦理争论,可以追溯到20世纪60年代。此后,许多相关问题都与授权、责任有关。随着人工智能在越来越多的情况下使用,从招聘到医疗保健,理解哪些任务和决定可以委托给人工智能,以及如何为其表现承担责任,都是要迫切解决的道德问题。

与此同时,随着人工智能变得无所不在,新的伦理挑战也随之出现。人类自决权的保护是最为重要的问题之一,必须予以高度重视。正如剑桥分析(Cambridge Analytica)案例所揭示的那样,人工智能有可能捕捉用户的偏好和特征,在一定程度上推动他们的行为,从而削弱他们的自主性。

授权和责任


人工智能应用越来越普遍。用户依靠它们处理各种各样的任务,从运送货物到国防安全。将这些任务交给人工智能,会给社会带来巨大的好处。它降低了成本和风险,提高了一致性和可靠性,并为复杂问题提供了新的解决方案。例如,人工智能应用程序可以将乳腺癌患者的诊断错误降低85%,人工智能网络安全系统可以将识别和消除网络攻击的平均时间,从101天减少到几小时。

然而,授权也可能导致有害的、意想不到的后果,特别是涉及敏感的决定或任务,并排除甚至妨碍人的监督。COMPAS是一个AI法律系统,在做出假释决定时,就曾歧视非裔美国人和西班牙裔美国人。我们需要健全的人类监管程序,尽量减少这种意外,并纠正AI任何不公平的行为。

不过,如果只是在问题发生后才处理,那么人的监督是不够的。我们还需要一些技术来解释人工智能,并预测其结果。DARPA(美国国防高级研究计划局)的可解释人工智能项目就是一个很好的例子。

这个程序的目标是使用新的技术,来解释人工智能系统的决策过程。这将使用户了解人工智能系统是如何工作的,帮助设计师和开发人员改进系统,以避免错误和减少滥用的风险。要想取得成功,类似的项目必须从一开始就进行道德影响分析,评估人工智能的好处和风险,并为合理设计、使用人工智能,确定指导原则。

基于人工智能的决策或行动的效果,通常是许多参与者(包括设计师、开发人员、用户、软件和硬件工程师)之间无数次互动的结果。这就是分布式代理。分布式代理带来分布式责任。现有的伦理框架关注个人和整个人类的责任,目标是根据个人的行为和意图,分配惩罚或奖励。它们不是为了处理分布式责任而发展起来的。

直到最近,新的伦理理论才考虑到分布式代理。它基于合同责任和侵权责任,或以严格责任为基础,并采用无过错责任模式。该模式将代理的责任与其执行给定操作的意图或控制其结果的能力分离开来,并使分布式系统的所有代理(如公司)承担责任。

这是考虑人工智能的关键,因为它将道德责任分配给了设计师、监管者和用户。在这样做的过程中,该模式在预防邪恶行为和促进善的方面发挥了重要作用,因为它促使所有相关的主体都能采取负责任的态度。

要抓住人工智能创造的机遇并应对相关挑战,建立良好的授权实践,并确定赋予道德责任的新模式是必不可少的,但仅有这些还不够。为了解释人工智能对人类行为的无形影响,必须扩展伦理分析。

隐形性和影响力


人工智能支持服务、平台和每天都在使用的设备。2017年,国际机器人联合会(International Federation of Robotics)表示,到2020年,全球的工厂将安装170多万台新的人工智能机器人。同年,瞻博网络公司(Juniper Networks)发布了一份报告,估计到2022年,全球55%的家庭将拥有语音助手,比如亚马逊的Alexa。

随着人工智能的成熟和传播,它融入了我们的方方面面,并成为一个无形的促进者,以一种便利的、几乎看不见的方式调解我们的互动。在创造新的机会的同时,将人工智能无形地整合到环境中,带来了更多的伦理问题。这些问题也会根据人工智能使用场所不同而不同。

例如,在家庭、学校或医院嵌入人工智能解决方案时,信任和透明度至关重要,而在人工智能融入工作场所的过程中,平等、公平以及对员工创造力和权利的保护至关重要。人工智能的整合也带来了另一个基本风险:由于人工智能的隐形性和影响力,人类的自决权会受到影响。

这种隐形性增强了AI的影响力。凭借其预测能力和人类不懈的推动,以及人工智能无处不在但难以察觉的能力,人工智能系统可以轻松,且让我们毫无察觉地影响我们的选择和行动。当然,这也未必有害。例如,它可以促进社会互动和合作。

然而,人工智能发挥的影响力也可能会超出我们的意愿或理解,破坏我们对环境、社会的控制,最终影响我们的选择、项目、个性和生活。不恰当地设计和使用隐形人工智能,可能会威胁到我们脆弱的,但又不可或缺的自决能力,即决定我们的生活和个性、自主选择的能力。

转化伦理


为了应对人工智能带来的风险,我们有必要确定一套正确的基本伦理原则,以便为人工智能的设计、监管和使用提供必要的信息,并利用它来造福并尊重个人和社会。这不是一项简单的任务,因为伦理原则可能因文化背景和领域而异。这是“IEEE全球自主和智能系统伦理倡议”要解决的问题,其目的是推动公众,进行关于人工智能伦理的价值观和原则的辩论。

更重要的是,关于基本原则的一些共识正在形成。最近的一项以人工智能伦理学为重点的主要国际倡议的比较分析,强调了这些倡议所支持的原则与伦理学一些关键原则的实质性重叠,即善行、非恶意、自主和正义。

我们有理由对进一步的趋同持乐观态度,因为我们还可以从《世界人权宣言》中提取出其他原则。这种融合将促进人工智能不同伦理框架走向一致,从而增强兼容性,并为人工智能技术的设计、法规制订和使用提供总体的伦理指导。

一旦确定,伦理原则必须转化为可行的指导方针,以形成基于人工智能的创新。这种转化有先例可循,尤其是在医学领域。在医学领域,研究要“从实验室到临床”,建立在生物学研究进展的基础上,才能开发新的疗法。同样,转化伦理也是建立在学术进步的基础上,才能形成监管和治理方法。这种方法也支持了AI4People项目即将发布的“关于人工智能的道德设计和管理的建议”。

AI4People项目于2018年2月由欧洲议会批准启动,旨在把人工智能融入社会和每个人的生活中。这一提议结合了一个由国际专家组成的科学委员会和一个利益相关者论坛的意见,与欧盟委员会人工智能高级专家组共同协商,为人工智能的伦理和人工智能社会的发展提出了一系列具体可行的建议。

人工智能伦理学的建立需要制定一个预见性的方法,以明示伦理风险和机会,并防止不必要的后果。影响评估分析就是方法之一,它能提供在特定的机构中部署的实践或技术,对隐私、透明度或责任等方面的影响进行逐步评估。

预见性的方法永远不可能揭露AI系统的所有机会、风险和意外后果,但可能会找到更好的替代方案、有价值的行动路线、可能的风险和缓解策略。这有双重优势。作为一个机会策略,预见性的方法可以充分利用伦理解决方案。作为一种风险管理形式,它可以通过避免伦理上不可接受的决策或行动,帮助预防或减轻代价高昂的错误。

对人工智能的设计和使用进行道德规范是一项复杂但必要的任务。如何不进行规范,可能导致个人权利和社会价值的贬值,人们拒绝AI创新,最终失去利用人工智能改善个人福祉和社会福利的机会。当初,人类没有防范工业革命对劳动力的影响,然后发现大规模工业化和全球消费主义对环境造成了恶劣影响,才艰难地吸取了教训。保护工人的权利和建立可持续性框架花了很长的时间,也导致了社会动荡,甚至革命。

人工智能革命同样意义重大,人类决不能再犯同样的错误。当务之急是解决关于后人工智能社会的性质,以及关于人工智能的设计、管理和使用的价值观的新问题。这就是为什么上述举措,AI4People和IEEE项目、欧盟的AI战略、人工智能造福人类和社会的伙伴关系等,如此重要的原因。人类社会、政治、商界和学术界的协调努力,将有助于确定和追求最佳战略,使人工智能成为一股造福人类的力量,并发挥其潜力,在尊重人类尊严的同时,促进人类的繁荣。

原文链接:

http://science.sciencemag.org/content/361/6404/751.full

来源:科学杂志

作者:Mariarosaria Taddeo, Luciano Floridi

智能观 编译

—完—

想知道AI加教育领域有哪些最新研究成果?

想要AI领域更多的干货?

想了解更多专家的“智能观”?

请前往:www.智能观.com。

想交流沟通,请加负责人微信:znglmym

声明

编译文章旨在帮助读者了解行业新思想、新观点及新动态,为原作者观点,不代表智能观观点。

上一篇下一篇

猜你喜欢

热点阅读