人工智能决策也会产生偏见,人类该如何用法律做好把关?
现在要创业不可不谈人工智能、大数据这两大议题。从这再往下探讨就可说到深度学习与机器学习的技术。无论是创业或是主管们,AI 和大数据都是未来的科技走向,而这两大科技只会越来越庞大,不太可能突然消失。然而,当今人类对 AI 和大数据都还很陌生,就连发展前线的科学家们也只短期臆测未来会变得如何。那现在的我们能做到什么,让我们可以规避可预见的危机呢?

人工智能(Artificial Intelligence)已成为现今全球产业必谈的话题,各行各业不断发想如何藉由人工智能提升效率、增加产能。目前人工智能已发展到第三波浪潮,此可归功于半导体技术与运算能力的精进,第三波人工智能是以大数据(big data)为基础,发展机器学习(machine learning)与深度学习(deep learning)技术。透过人工智能技术,企业似乎不费吹灰之力就能推估人的行为和偏好,进而更精准地提供产品和服务。近年来,不光是企业组织,各国政府亦发现利用人工智能的好处,纷纷将其应用在决策上,不过争议案例却层出不穷。
新西兰想打造大数据演算模型受惠国家,但最后却变成一个带有偏见的无情机器
2014 年中国国务院提出《社会信用体系建设规画纲要》,为在 2020 年达成全面实施社会信用体系的目标,各地政府陆续广泛搜集人民的数据,利用大数据分析方式,从政务诚信、商务诚信、社会诚信、司法公信四大领域,对个人和企业组织进行评分。据 2018 年 3 月澳洲广播公司报导,已有民众在不明原因的情况下被列入失信名单,以至于旅行严重受阻或无法借贷,甚至资产被冻结。
无独有偶地,据 2018 年 4 月新西兰媒体报导,新西兰移民署( Immigration New Zealand)从十八个月前开始实行一项实验计划(pilot programme),藉由国家签证申请程序搜集移民的年龄、性别、种族、犯罪纪录、医疗费用欠缴纪录等数据,目的在建立一个演算模型 — 伤害模型(harm model),用以预测居留在新西兰的移民如果续留是否从事犯罪行为或带来更多医疗支出。一旦模型显示某些移民可能对国家造成治安疑虑或增加医疗负担,这些移民将无法重新申请签证,更甚者,将直接被驱逐出境。
新西兰移民署表示这个实验计划有利于政府及早采取行动,然而不少移民质疑演算模型带有偏见。一位印度裔移民的家属向新西兰移民署申请居留被拒,原因在于,移民署透过演算模型相信该印度裔移民的母亲过去曾经患有乳癌,但实际上,他的母亲不曾患过任何关于乳房组织的病变。此外,一些律师与人权团体亦因为演算模型纳入种族数据,强烈抨击移民署的计划背后隐藏着种族歧视。
人工智能的演算是不是应该纳入人伦道德?
由于人工智能演算模型设计可能带有偏见进而导致歧视,美国已有大型科技公司试图在人工智能发展过程中将伦理因素纳入考虑,希望人工智能的应用更贴近社会期待。
2018 年微软( Microsoft)在官方网站上公布人工智能开发应考虑的六大伦理原则,包含公平性(Fairness)、可信赖性与安全性(Reliability and Safety)、隐私与安全(Privacy and Security)、包容性(Inclusiveness)、透明(Transparency)以及课责(Accountability),并透露微软已成立人工智能与工程及研究伦理委员会(AI and Ethics in Engineering and Research(AETHER) Committee)(简称 AETHER 委员会),负责研究人工智能产品研发对人类和社会的影响,并提出适切的政策建议或最佳实务典范。 AETHER 委员会也会进行个案伦理审查,审查结果将会影响微软的决策。
脸书(Facebook)针对旗下相关产业研究,在管理流程中设计一套伦理审查程序。先从人员的教育训练开始,分别针对一般员工、研究者与审查者进行隐私和研究相关训练。接着,在研究构想形成后,将计划书提交给该研究领域的主管进行第一阶段审查,判断研究是否涉及较敏感的人口群或个体,进而需要咨询其他专家之意见。
如是,则由跨功能团队研究审查小组(cross-functional research review group)进行审查;如非,则依标准审查程序即可。无论采何种审查程序,皆须通过审查后才能开始执行研究计划。另外,在审查评估标准方面,除了参考美国有关保护人体试验的联邦政策(Federal Policy for the Protection of Human Subject)(通称 the Common Rule),以该政策中关于伦理审查之规定为基础外,脸书又根据公司需求订立四项标准,评估(1)研究是否能改善社会;(2)研究结果是否有潜在负面影响且已尽力降低该影响;(3)研究是否合乎一般人的期待;(4)是否采取适当预防措施以保护个人资料。
欧盟的 GDPR 怎么应对大数据与人工智能浪潮?
人工智能的偏见问题不仅反映在企业产品研发上,公务机关和民间机构每天作出成千上万个影响个人生活的决策,倘若一味追求绩效而完全信赖人工智能判读,会造成什么样的不良后果可想而知。前述只是美国企业藉由自律方式,使人工智能产品研发尽量不背离伦理道德,并没有任何法律拘束力;但实际上,在欧洲地区却有相关法律规定。
为了因应大数据与人工智能时代对个人资料保护之冲击,欧盟一般数据保护规则( General Data Protection Regulation, GDPR)针对自动化决策(automated decision-making)和数据剖析(profiling)已明文规定。依据 GDPR 第 22(1)条规定,纯粹基于自动化数据处理(包括数据剖析)所作成的决定,对于数据当事人(data subject)产生法律效果或类似重大影响时,数据当事人应有权免受该决定的拘束。所谓纯粹基于自动化数据处理所作成之决策,指的是在没有人为参与的情况下,透过技术方式作出的决策。
然而, GDPR 并不是完全禁止纯粹基于自动化数据处理所作成的决策,前提是这种决策必须对数据当事人产生法律效果或类似重大影响。例如:人才招募系统使用预先排程的算法与标准进行性向测验,并纯粹依此结果决定是否面试特定人时,当事人可能不明究理地被阻挡在求职大门之外,严重影响就业机会,这样的决策将被欧盟所禁止;而借助算法了解客户收视习惯进而推荐电视节目的情况,因可能不会产生法律效果或重大影响,则不在 GDPR 第 22 条禁止之列。
此外,如果是基于以下三种情况:(1)签订或履行契约所必要(2)经过欧盟或其会员国法律所授权(3)经过资料当事人明示同意,仍可藉由纯粹自动化数据处理方式作决策。但是,数据控制者(data controller)和数据处理者(data processor)必须尽到以下义务:(1)主动将自动化决策和数据剖析一事通知数据当事人;(2)实施适当安全措施,例如预先进行数据保护影响评估(Data Protection Impact Assessment, DPIA)并做好风险管理;(3)提供数据当事人权利行使管道,例如当事人异议或申诉程序。
人工智能无论怎么发展都应抱持着一颗以人为本的心
不可否认,人工智能为人类生活带来许多方便,无论营销、金融服务、健康照护、教育等各领域,一旦遇到需要分析处理大量数据时,人工智能总是能导出更快速而一致化的决定。然而,在效率与便利性的背后,却伴随着一些不为人知的风险。
当人工智能发展已逸脱于传统自动控制模式,机器不再只是单纯按照人类默认的指令动作,而是具备探索推论与学习的能力时,似乎更应该重新思考发展人工智能究竟是为了什么?,否则人工智能很容易沦为侵害他人权益的工具,甚至最后导致人类被机器完全取代。倘若发展人工智能的根本目的是为了改善人类生活福祉,那么在其发展与应用过程中,似乎没有理由将伦理、道德及其他与人的权利、自由相关因素排除在外,这也是美国知名科技公司建立伦理审查程序以及欧盟制定 GDPR 规范的原因之一。
以人为本的观念已逐渐在科学技术专家中成为共识,国际性电子工程专业技术组织 —电机电子工程学会( Institute of Electrical and Electronics Engineers, IEEE)在 2016 年发表的《以伦理为基准的设计(Ethically Aligned Design)》,就强调伦理研究对人工智能的重要性,认为应将人的伦理与价值观设计到人工智能系统中,才能符合社会期待,进而在追求商业经济效益和社会利益之间达到平衡。
尽管我国政府与产业亦跟随世界潮流,正如火如荼地推动人工智能发展与应用,但关于人工智能与伦理关系议题仍处于探讨阶段,尚未形成明确的制度或规范。为了人工智能发展的永续性,如何建立良善的环境使技术发展既能改善经济又同时符合人民的期待,将是当前必须重视的课题之一,美国企业与欧盟 GDPR 相关规定,或许能作为我国企业自律与法律规范调整之借镜。