杂谈人工智能

2018-02-21  本文已影响0人  呆呆熊

霍金曾经说过人类会毁灭于人工智能机器人,当时我觉得有点道理,如果机器人会思考,一类灭亡是迟早的事。

但现在想想,又不太对,因为逻辑上讲不通。

人类是世界上智慧最高等级的生物,这种生物是有机体,有机体主要成份是碳和水组成,几乎所有有机体生物都有一个充满神经元的大脑,每个大脑的学习能力决定一个生物的等级。人类高级就是因为大脑有形象思维,形象思维才能扩展学习,突破任何逻辑思维的定式及规则,形象思维是无法通过数学建模复制的。

目前的人工智能可以在逻辑思维打败人类,通过人类自建的逻辑自学优化程序,但无论科技如何改变,都无法超脱数学与空间的规则,再人工智能,只要符合数学与空间的思维,就无法干掉人类。

想到这,我觉得程序语言的发明是人类最伟大的发明。程序语言,突破了人类逻辑思维的极限,让科技飞速发展,任何数理模型都能通过程序语言实现。

所以数学是规则,程序是实现规则,而人工智能是在规则之下优化的选择模型,并不能突破规则。

所以如果要有一种东西毁灭人类自己,一定是创造出了另一种具有逻辑与形象思维的生物体,这种技术一定是人类破译了有机体如何构建生命的密码。

如果真到了那样一天,人类发明了一个个巨型有机超脑体,也就到了人类灭亡的时间。以后就没有爱情,没有亲情,超脑体通过自己进化,人类的商智与超脑体比可能就只相当于猪。

也许有一天我们与外星人建立友谊,一定是超脑生物,人类被制成人体标本展示在搏物馆中。

上一篇下一篇

猜你喜欢

热点阅读