拆书与写作人工智能机器人碎碎念

机器人理论-读《银河帝国》

2019-02-19  本文已影响0人  缘起比尔哥

阿西莫夫的机器人三大法则,历来被视为指南针式的存在。

第一定律:机器人不得伤害人类,或者目睹人类将遭受危险而不作为;

第二定律:机器人必须服从人给予它的命令,除非与第一定律冲突;

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

机器人法则,已经过时了吗?不见得。

2007年,日本经济产业省出台《下一代机器人安全问题指导方针(草案)》,来正式为机器人立法,避免机器人对人类造成不好的后果。草案要求将人类所处危险的发生几率以及人类所处危险的级别分级,所有机器人必须告知人类他们的行为将会带来怎样的后果,同时必须将所有机器人伤害人类的事故记录在机器人的数据库中,以让机器人规避类似行为。

韩国紧随其后,声称要退出一部《机器人道德宪章》,将道德写入机器人程序,同时保护机器人本身的安全——防止人类虐待机器人。

机器人法则,直到如今依旧存在指导意义。

然而阿西莫夫又用了整整一个系列,来探讨这三个法则的合理性。

如果为了达到某个目的,必须要杀害一些人,怎么办?——于是阿西莫夫根据心理史学,提出了第零法则:机器人必须保护人类的整体利益不受伤害。也即,将心思专注与整幅织锦,不要在意一根线的脱落。

然而这样就完美了吗?

会不会有一种情况,使得机器人做出了该做的选择,却反倒使人类收到了伤害?

而什么又是伤害?人类向机器人求爱被拒绝算不算心理创伤?

人类整体利益又该怎么分辨?如何设定程序来识别这个整体利益?

人类知道整体利益在何种条件下达到最大化吗?

如果人类自己都不知道,又如何创造出知道的机器人?

因此,心理史学迎来终极概念——创造人类。“我们必须塑造一种有前途的人类来加以保护,而不是被迫在两三种没前途的人类之间作出选择。”

也正是因为这个第零法则,所有的结局看似都已经最终注定。

最后谢顿计划是否成功,基地的未来如何,银河系的未来如何,都已在最初就已经设定好。

不剧透,不说结局。

至此,心理史学和机器人理论完美结合。

上一篇下一篇

猜你喜欢

热点阅读