30天认知训练营

23.人工智能时代下的新电车难题

2019-01-15  本文已影响2人  枞阳徐少

无论是怎样的道德算法,本质上讨论的,都是面对社会困境把悲剧分配给谁。理论上不存在满足各种公平正义要求的正解,但实践中我们随时都在分配。

机器人三定律

第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害;

第二定律:除非违背第一定律,否则机器人必须服从人类的命令;

第三定律:在不违背第一及第二定律下,机器人必须保护自己。

道德机器不是做着玩的,研究者用它来搜集在自动驾驶问题上社会的道德判断。

1、孩子重于老人,胖瘦男女对我完全没差别;

2、多个人重于一个人,不论是什么人;

3、人重于动物,遇到撞人还是撞狗,永远选择撞狗;

4、如果转向不转向都撞到同样多人,那就不转向;

5、如果转向的后果是我自己完蛋,那就绝不转向。

电车难题、人工智能的道德算法,本质上都是把悲剧分配给谁的问题。在理论上不存在满足各种公平正义要求的正解,但实践中则随时随地都在分配,一刻也没有因为不够公平而停止过,问题只在于它是如何分配的。

社会分配悲剧有四个策略:市场、政府、摇号、惯例,但没有哪个能长期维持分配的稳定性。


上一篇 下一篇

猜你喜欢

热点阅读