电车难题:自动驾驶汽车的道德难题
1、智能汽车的道德难题
著名的科幻作家阿西莫夫,在他的《机器人系列》里面,提出了影响力极大的机器人三定律。
第一定律,机器人不得伤害人类,或者因不作为而使人类受到伤害。
第二定律,除非违背第一定律,否则机器人必须服从人类的命令。
第三定律,在不违背第一及第二定律下,机器人必须保护自己。
这三大定律定义非常严密,逻辑也严谨,而且层层递进,所以甚至于影响了人工智能的一些发展的轨迹。
但是,今天人工智能领域的发展,却遇到了这三大定律无法解决的问题。
那就是电车难题的升级版——自动驾驶汽车的选择难题。
具体的场景比如这样,一辆自动驾驶的汽车在路上行驶,这时候突然冒出来一个人横穿马路,这时候人工智能检测到了这个意外,但是刹车已经来不及了,这时候它就面临了一个选择。
如果不转向,那么会撞死行人,如果转向,那么乘客会死于翻车。
这时候自动驾驶智能应该如何选择呢?
阿西莫夫的三大定律,第一条就在这里卡着了。
那很多人会说,阿西莫夫后来不是加了第零定律嘛,那就是机器人不得伤害人类种族,或因不作为而让人类种族受到伤害。
这第零条定律,就是让人类利益最大化,延续种族的传承。
但是这个判断和辨别又是一个难题了。
2、功利主义算法
比如孩子和老人、多人和单人、女人和男人、人和动物等等,当这些选项出现以后,每一家开发自动驾驶的公司,都得面临这个选择。
如果按照阿西莫夫的第零定律,那么孩子优先、人多优先、女人优先、精英优先,人比动物优先,因为这是赤裸裸的效用主义。
也就是说,哪一方对整个人类社会的发展,起的效用越高,那么就保留哪个选项。
如果人工智能自动驾驶,必须要编一个选择程序优先级,我想这个效用等级应该是最多人支持的。
事实也是如此,研究发现效用主义是绝大多数人支持的算法。
毕竟对于我们每个人来说,做出选择是一辈子都在做的事情,我们时刻会面临一些两难的选择,而放弃哪个,选择哪个,从来都是功利主义的。
所以真的发生了这么一个选择,自动驾驶用这个算法做了选择,我们绝大部分人都是能够接受的。
但是,问题来了。
我们能够接受,并不代表我们会去买。
我们想买的其实是,不管任何情况,都优先保护我们自己,保护乘客的汽车,而不是说要是遇到两个小孩子横穿马路,就会把我自己搞死的汽车。
所以真要是用这种算法生产了汽车,最后根本就不会有人买。
因为我们人类都是矛盾的,己所不欲勿施于人这句话反过来,才是人性的真相。
3、未来的走向
那怎么办呢?自动驾驶就永远上不了路了嘛?
那也未必,人工智能专家说,既然两个选择都是错,那就避免遇到这种选择嘛。
于是自动驾驶的汽车,就在处理速度、距离、路况、天气等等信息的收集和处理上下功夫,并用各种传感器和雷达进行感知,提前计算出所有处理方案。
这样那些难以抉择的道德难题,就变成了假难题。
第二种思路,王烁老师给了我很大的启发,那就是不断寻找和更换和困境并存的策略。
什么意思呢,就是人类历史上经常会遇到很多根本没有正解的问题,但是又不得不做解决。
那么最好的策略就是,先用一个,然后等人性的反击,当怨念和愤怒积累到了一定程度以后,在更换一个相反的,继续等怨念的积累。
如此不断的循环,就可以让难题和答案一直并存了。
所以未来汽车里面的算法,就可以用几种综合的算法先实行,然后等出问题多了,大众开始反击了,在更换成下一种。
反正,这种事情,我们在历史中没少干。