李宏毅ML01-Introduction
2019-07-19 本文已影响0人
阿叶
视频地址:ML Lecture 0-1: Introduction of Machine Learning
无干扰条件下,机器学习已经在各个方面超越人类,但面对干扰,机器还是很容易犯错。
机器学习能力约等于找到一个函数的能力。
机器学习的用途
- 回归
找到回归方程(预测PM2.5) - 分类
二元分类(垃圾邮件过滤)和多分类(图片识别) - 生成
创造图片or文字
机器学习的分类
- 监督式学习
使用打标签的数据集进行训练 - 半监督式学习
同时使用标签和未标签的数据集进行训练 - 迁移学习
对任务不相关数据的处理 - 增强学习
从评价中学习,比如下一盘棋,不输入棋谱,只看结果。赢了是好结果,输了是坏结果,如此重复。 -
非监督式学习
比如让机器从大量阅读材料中学习词语的意思
机器学习的步骤
机器学习的下一步
- 机器能不能知道“我不知道”
比如在图像识别中,输入一个和训练集无关的图片,机器能不能知道这张图我不认识,还是说会强行把它套入算法中进行识别。 - 说出为什么“我知道”
机器的识别依据也许和人类不同。比如在一个训练识别马的实验中,某种机器学习模型更多的是依据图片左下角的来源label,因为所有训练集图片都是来自于同一个图库。 - 机器的“错觉”
熊猫的图片加上噪点之后可能被识别为长臂猿,这种情况发生在自动驾驶中可能是致命的,如何防止这样的“错觉”发生。 -
终身学习
人类可以不断学习新的技能,但机器一般对应每种任务都需要一个模型。如果使用同一个模型学习不同的任务,那么会导致之前的学习失效。
如果使用同一个模型学习 - 学习如何学习(元学习)
机器是否能够编写出能够进行学习的程序? - 一定需要很多训练资料吗?
以图片识别为例,机器能不能在没有看过一种动物之前,根据文字描述识别出这种动物。 - 能不能缩短增强式学习的时间?
alpha star玩了200多年的时间才能战胜人类,如何缩短这个时间。 - 神经网络压缩
比如通过剪枝把大的神经网络缩小,比如把参数二元化。 - 如果训练资料和测试资料很不一样
比如手写数字识别中,如果训练集是黑白的,将测试集换成彩色的,识别正确率将会从99.5%降低到57.5%