互联网科技人文社科

电车难题:自动驾驶汽车的道德难题

2018-06-25  本文已影响21人  蛋壳小花生

1、智能汽车的道德难题

著名的科幻作家阿西莫夫,在他的《机器人系列》里面,提出了影响力极大的机器人三定律。

第一定律,机器人不得伤害人类,或者因不作为而使人类受到伤害。

第二定律,除非违背第一定律,否则机器人必须服从人类的命令。

第三定律,在不违背第一及第二定律下,机器人必须保护自己。

这三大定律定义非常严密,逻辑也严谨,而且层层递进,所以甚至于影响了人工智能的一些发展的轨迹。

但是,今天人工智能领域的发展,却遇到了这三大定律无法解决的问题。

那就是电车难题的升级版——自动驾驶汽车的选择难题。

具体的场景比如这样,一辆自动驾驶的汽车在路上行驶,这时候突然冒出来一个人横穿马路,这时候人工智能检测到了这个意外,但是刹车已经来不及了,这时候它就面临了一个选择。

如果不转向,那么会撞死行人,如果转向,那么乘客会死于翻车。

这时候自动驾驶智能应该如何选择呢?

阿西莫夫的三大定律,第一条就在这里卡着了。

那很多人会说,阿西莫夫后来不是加了第零定律嘛,那就是机器人不得伤害人类种族,或因不作为而让人类种族受到伤害。

这第零条定律,就是让人类利益最大化,延续种族的传承。

但是这个判断和辨别又是一个难题了。

2、功利主义算法

比如孩子和老人、多人和单人、女人和男人、人和动物等等,当这些选项出现以后,每一家开发自动驾驶的公司,都得面临这个选择。

如果按照阿西莫夫的第零定律,那么孩子优先、人多优先、女人优先、精英优先,人比动物优先,因为这是赤裸裸的效用主义。

也就是说,哪一方对整个人类社会的发展,起的效用越高,那么就保留哪个选项。

如果人工智能自动驾驶,必须要编一个选择程序优先级,我想这个效用等级应该是最多人支持的。

事实也是如此,研究发现效用主义是绝大多数人支持的算法。

毕竟对于我们每个人来说,做出选择是一辈子都在做的事情,我们时刻会面临一些两难的选择,而放弃哪个,选择哪个,从来都是功利主义的。

所以真的发生了这么一个选择,自动驾驶用这个算法做了选择,我们绝大部分人都是能够接受的。

但是,问题来了。

我们能够接受,并不代表我们会去买。

我们想买的其实是,不管任何情况,都优先保护我们自己,保护乘客的汽车,而不是说要是遇到两个小孩子横穿马路,就会把我自己搞死的汽车。

所以真要是用这种算法生产了汽车,最后根本就不会有人买。

因为我们人类都是矛盾的,己所不欲勿施于人这句话反过来,才是人性的真相。

3、未来的走向

那怎么办呢?自动驾驶就永远上不了路了嘛?

那也未必,人工智能专家说,既然两个选择都是错,那就避免遇到这种选择嘛。

于是自动驾驶的汽车,就在处理速度、距离、路况、天气等等信息的收集和处理上下功夫,并用各种传感器和雷达进行感知,提前计算出所有处理方案。

这样那些难以抉择的道德难题,就变成了假难题。

第二种思路,王烁老师给了我很大的启发,那就是不断寻找和更换和困境并存的策略。

什么意思呢,就是人类历史上经常会遇到很多根本没有正解的问题,但是又不得不做解决。

那么最好的策略就是,先用一个,然后等人性的反击,当怨念和愤怒积累到了一定程度以后,在更换一个相反的,继续等怨念的积累。

如此不断的循环,就可以让难题和答案一直并存了。

所以未来汽车里面的算法,就可以用几种综合的算法先实行,然后等出问题多了,大众开始反击了,在更换成下一种。

反正,这种事情,我们在历史中没少干。

上一篇下一篇

猜你喜欢

热点阅读