20201121听书笔记:《AI联结的社会》

2020-11-21  本文已影响0人  幸运星小燕子

根据原书结构,可以归纳为三个要点:

第一,网络化为什么会是AI未来的发展方向?以及如何治理才能让所有人都从AI网络化中受益?

第二,AI将会如何不动声色地影响我们的生活?它是否会滥用我们的隐私和个人数据?在法律和规则上,我们应该如何防止这些滥用?

第三,当AI牵扯到刑事犯罪时,法律应该如何判断?当AI导致了生命的损失,谁应该承担责任?

联结在一起的AI可能会形成一个隐蔽的“黑箱”,我们知道它的输入和输出,但是不知道它的内部是如何加工转化的。因为错综复杂的联结关系和联结数据,网络化的AI可能会做出让我们意想不到的决策。我们没办法理解“黑箱”内部的运作原理,也没有办法判断它到底是出了故障,还是输入的数据错误,还是它本来就会做出这样的决定。有些时候,它可能只会产生一些让人觉得好笑的结果,而另一些时候它可能会带来危险。当网络化的AI成了难以预测的系统时,就可能给使用者带来伤害。

为了避免AI做出类似的错误决策,对我们的生活施加不必要的负面影响,我们需要建立一套所有人都共同遵循的规则和法律,来让网络化的AI处于可控的状态。虽然AI网络化会带来大量数据的飞速流动,并在这个基础上提升整个人类社会的智能程度,但我们还是要考虑,这些变化所需要付出的个人和社会成本问题。

当AI网络化发展起来以后,每个人都有可能跟不上技术的进步速度,都可能无所适从,成为那个受AI限制甚至歧视的人。要避免这些情况,我们应该从现在开始,考虑AI网络化潜在的危险,并且仔细斟酌对网络化AI的治理策略。

也许你觉得知识产权问题和自己的关系不大,但接下来的一个问题,必定会影响你的正常生活,那就是AI网络化对个人隐私的掌控。比如,你将来很可能会购买一个拥有人工智能的家用机器人,它会收集你日常生活中的种种细节;当你在网上购物或者使用社交网络时,人工智能推荐系统会分析你的偏好,并且掌握那些甚至连你自己都没有意识到的个人倾向。这些隐私和个人数据本来只属于你自己,但是在AI面前,你的一切都将无所遁形。

日本在2013年修正了《个人信息保护法》,来应对这些不确定的问题。在修正后的法律中,制定规则来强化个人信息保护,要求企业履行尽可能消除客户个人数据的义务,并规定未经当事人同意,不得向其他人提供数据。这些规定,是为保护个人数据安全采取的措施。但是,类似的规定,要得到国际社会的统一认可,成为所有企业的行事标准,成为每个互联网和AI用户的基本守则,还有很长的路要走。

我们将会发现,核心在于我们能否预测AI将会做出怎样的判断。如果AI的决策过程始终是一个“黑箱”的话,我们也许永远也找不到答案。既然责任无法确定,那么谁来承担责任,也就成了谜题。

AI的行为无法预知,也就会带来难以意料的危险,进而造成责任的空白,我们甚至没有办法在法律上做出判断。而即使找到原因,认定责任的确归属于AI,我们也没有办法做出惩罚,因为惩罚只能用在人类这样拥有人格的生物身上。那么AI是否拥有人格呢?这显然会引起规模更大的讨论,涉及人类所拥有的诸多权利和义务。

所以我们可以看到,如果不改变这种AI行为无法预知的特性的话,我们将会面临诸多法律上的困境。为了避免这些困境,我们能想到的最好的方式,就是让AI的开发变得更加可控,让AI的逻辑变得更加透明,让人能够理解AI做出判断的原因,并让AI避开作为刑事责任主体的可能性。

这个结论可能会让我们有点不舒服。毕竟我们已经习惯了责任明晰的法律判断,而对AI这样介于生物和非生物之间的模糊物体还不大适应。但要解决这样的问题,根本方法是对AI的开发和使用建立规则。这看起来和刑法离得有点远,却是解决这类刑事问题的最好方案。

这本书的主要内容:它讨论的是随着人工智能的发展,人工智能将会形成彼此联网的网络化格局。网络化的AI将会提供更强大、更便利的功能,会提升整个社会的智能化水平,但它也会带来一系列问题。我们需要未雨绸缪,尽可能利用其优势,避免其负面后果。

具体地来说,网络化AI的问题可能会集中在两个方面,分别是日常生活中的隐性影响,以及重大的刑事问题。在这两个方面,我们都需要建立一些通用原则,来预防AI对个人和社会带来的冲击。比如,完善相关法律,例如知识产权法不应该保护AI创作的内容,企业应该更谨慎地对待客户的个人隐私和个人数据;其次,尝试改变现在AI的开发方式,建立更透明、更可控的人工智能系统,让我们能够理解AI做出判断的理由和方法。

有一个好消息是,在最近几年,人工智能学界已经开始反思AI黑箱化所带来的种种问题,也诞生了一个新的领域,叫做“可解释人工智能”,它指的是为人工智能使用人类可以理解的算法,来让AI的决策结果变得可以预测。

人工智能学界已经意识到传统AI不透明所带来的局限性,而这个弱点正因为AI的广泛使用变得越来越突出。未来我们需要和AI协同工作,如果AI是一个黑箱的话,我们就无法信任它。从2018年开始,国际上成立了一个名叫“公平、问责和透明度”的跨学科同行评议会议,其中就涉及如何让AI开发和使用过程变得更加透明的问题。

现在,我们已经有了一些“可解释人工智能”的算法模型,它们在通用的人工智能机器学习算法基础上,结合了新开发的人机界面技术,让使用者可以更方便地理解人工智能算法的逻辑,并且预测它的运行结果。

也许有一天,“可解释人工智能”会取代现在基于机器学习的AI“黑箱”,让AI成为我们生活和工作中的重要帮手,帮我们提高自己的生活质量,提升整个社会的智力水平。这也应该是未来AI的发展方向。

上一篇下一篇

猜你喜欢

热点阅读