a01.Andrew-ML01-监督、无监督
2018-08-02 本文已影响8人
Xylia_Yang
https://www.cnblogs.com/fanling999/p/7783912.html#01
Introduction
机器学习的定义
- give computers the ability to learn without being explicitly programmed.
T:明白任务是什么,比如将邮件分为垃圾邮件(1)和正常邮件(0)
E:有足够的经验来供模型学习
P:有一定判断来度量学习情况的好坏
课程内容
机器学习算法
- 监督学习(有label)
1. 分类:label是离散的(垃圾邮件分类)
1. 回归:label连续(房价预测)
- 非监督
1. 聚类
1. 降维
1. 异常检测
其他
强化学习、推荐系统
Surpervised Learning
定义
利用一组已知类别的样本来调整分类器的参数。也被分为regression和classificaiton问题
举例
- 对房价进行预测(连续)
对于连续数据的又称 regression问题
图片.png- 肿瘤预测(离散)
对于离散数据又称为classification问题。
图片.png支持向量机:处理无限长特征
unsupervised learning
定义
没有标签,只有数据集,判断出不同的聚类
图片.png举例
- 聚类(clustering):算法自动将相同元素分为紧密关系的子集或簇
1. 网站中将类型相同文章进行分类
图片.png1. 识别不同人,按照基因相同部分进行分类
图片.png- 非聚类
鸡尾酒问题
图片.png给出混合信号,分理处每个人的独立信号。用octave工具可轻松处理。
图片.png
- 工具:octave matlab
线性回归算法
监督学习算法的模型
给定一个训练数据集,(x(i),y(i)) 。X表示输入,Y表示输出。得到一个从X->Y的映射函数h.
图片.pngHypothesis function
图片.png-
选择参数
-
Cost Function
评价hypothesis function通过使用代价函数,找到使代价函数最小值的参数。
(平方差代价函数)
图片.png 图片.png 图片.pnggradient descent algorithm
(梯度下降算法)
- 定义:不断调整找到使得任何代价函数取值最小的参数θ0,θ1.(不止是线性回归代价函数)
- 过程:
同时调整θ0,θ1,直到局部最优解处停止,learning rate不能太大太小。
图片.png 图片.pnggradient descent for linear regression
图片.png不断调整参数使得假设函数越来越精确。
Matrix and vectors
Matrix
- def:rectangular array of numbers
vector
- def:an n*1 matrix
默认1-index