机器人理论-读《银河帝国》
阿西莫夫的机器人三大法则,历来被视为指南针式的存在。
第一定律:机器人不得伤害人类,或者目睹人类将遭受危险而不作为;
第二定律:机器人必须服从人给予它的命令,除非与第一定律冲突;
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
机器人法则,已经过时了吗?不见得。
2007年,日本经济产业省出台《下一代机器人安全问题指导方针(草案)》,来正式为机器人立法,避免机器人对人类造成不好的后果。草案要求将人类所处危险的发生几率以及人类所处危险的级别分级,所有机器人必须告知人类他们的行为将会带来怎样的后果,同时必须将所有机器人伤害人类的事故记录在机器人的数据库中,以让机器人规避类似行为。
韩国紧随其后,声称要退出一部《机器人道德宪章》,将道德写入机器人程序,同时保护机器人本身的安全——防止人类虐待机器人。
机器人法则,直到如今依旧存在指导意义。
然而阿西莫夫又用了整整一个系列,来探讨这三个法则的合理性。
如果为了达到某个目的,必须要杀害一些人,怎么办?——于是阿西莫夫根据心理史学,提出了第零法则:机器人必须保护人类的整体利益不受伤害。也即,将心思专注与整幅织锦,不要在意一根线的脱落。
然而这样就完美了吗?
会不会有一种情况,使得机器人做出了该做的选择,却反倒使人类收到了伤害?
而什么又是伤害?人类向机器人求爱被拒绝算不算心理创伤?
人类整体利益又该怎么分辨?如何设定程序来识别这个整体利益?
人类知道整体利益在何种条件下达到最大化吗?
如果人类自己都不知道,又如何创造出知道的机器人?
因此,心理史学迎来终极概念——创造人类。“我们必须塑造一种有前途的人类来加以保护,而不是被迫在两三种没前途的人类之间作出选择。”
也正是因为这个第零法则,所有的结局看似都已经最终注定。
最后谢顿计划是否成功,基地的未来如何,银河系的未来如何,都已在最初就已经设定好。
不剧透,不说结局。
至此,心理史学和机器人理论完美结合。