机器学习的缺陷

2020-04-11  本文已影响0人  御风_曜

机器学习的缺陷

机器学习的基础——概率

机器学习的原理:以历史现象预测未来——通过函数的拟合

表面的关联不代表内在的关联

盲人摸象VS直接看

机器学习的适用范围
在没有掌握本质的时候,根据表面数据来粗略预测未来。机器学习未深入本质,只是根据表面现象“猜”,是很笨很低效的。打个比方,就好比把一个不会外语的中国人扔到外国,不去系统的学习外语,只靠每天听外语,即使再聪明,学习的速度也是很慢很费力的。
机器学习是没有针对本质的盲人摸象,所以:
不是人制定的章法,不可解释(请参阅机器学习的可解释性)
退一万步说,即使有一天解释了,也会耗费不必要的巨量计算资源,这个代价远大于其收益
退一万步说,机器学习如果搞定了自然语言理解,不可解释的机器学习主导的不可预测的机器人,将不被人类控制,就是恶魔统治世界。
为什么要让盲人摸象呢?可不可以直接看呢?

现有技术:对词义的解释,没有找到“门道”

知识图谱:没有解释词义,只是简单的事物归类
语义网络,如WordNet:解释了词义,但存在循环引用,无法用程序实现
如下例,一个词语“include”的解释包含了part,“part”的解释又包含了include:
include -- have as a part,
part -- something determined in relation to something that includes it;
HowNet:有词义最小单元的概念,但是其非系统化的多维度分类(分类之间没有联系、对分类没有进一步解释、简化),没有精确、简洁地解释词义,导致越来越复杂,掺杂错误,无法应用


知识图谱.png

一个知识图谱,对“骄傲”这个词只归类于“抽象事物”,没有解释其含义


hownet.png
现有技术——HowNet对一个词“顶点”的解释,多么复杂!
“高于正常”的都是顶点吗?No。所以这解释是错误的
“界限”“位置”又如何定义?没有。
按我的解释——“最高的点”,不是一目了然吗?
上一篇 下一篇

猜你喜欢

热点阅读