人工智能/模式识别/机器学习精华专题呆鸟的Python数据分析

机器学习-吴恩达笔记1

2019-11-25  本文已影响0人  皮皮大

在第一周中讲解的内容包含:

监督学习Supervised Learning

利用监督学习预测波士顿房价(回归问题)

MX0eoR.png

在监督学习中,我们给学习算法一个数据集,比如一系列房子的数据,给定数据集中每个样本的正确价格,即它们实际的售价然后运用学习算法,算出更多的答案,我们需要估算一个连续值的结果,这属于回归问题

利用监督学习来推测乳腺癌良性与否(分类问题)

MX03Oe.png

机器学习的问题就在于,估算出肿瘤是恶性的或是良性的概率,属于分类问题

分类指的是,我们试着推测出离散的输出值:0或1良性或恶性,而事实上在分类问题中,输出可能不止两个值。

比如说可能有三种乳腺癌,所以希望预测离散输出0、1、2、3。0 代表良性,1 表示第1类乳腺癌,2表示第2类癌症,3表示第3类,也是分类问题。

应用


无监督学习Unsupervised Learning

MX0UYt.png

应用


单变量线性回归Linear Regression with One Variable

房价问题

横轴是不同的房屋面积,纵轴是房屋的出售价格。

监督学习:对于每个数据来说,给出了正确的答案。在监督学习中,我们有一个给定的数据,叫做训练集training set

回归问题:根据之前的数据,预测出一个准确的输出值。

分类问题:预测离散的输出值,例如寻找癌症肿瘤,并想要确定肿瘤是良性的还是恶性的,属于0/1离散输出的问题

MXgYGj.png

监督学习工作模式

MXgRQ1.png

学习过程解释:

批量梯度下降batch gradient descent

算法公式为

MXH5wj.png

特点:需要同步更新两个参数

梯度下降直观解释

算法公式:\theta_j:=\theta_j-\alpha \frac {\partial J(\theta)}{\partial \theta_j}

具体描述:对\theta赋值,使得J(\theta)按照梯度下降最快的方向进行,一直迭代下去,最终得到局部最小值。

学习率:\alpha是学习率它决定了我们沿着能让代价函数下降程度最大的方向向下迈出的步子有多大。

MXLMy8.png MXLL1P.png

梯度下降的线性回归GradientDescent-For-LinearRegression

梯度下降是很常用的算法,它不仅被用在线性回归上和线性回归模型、平方误差代价函数。将梯度下降和代价函数相结合。

梯度下降VS线性回归算法

MXXAPA.png

对之前的线性回归问题运用梯度下降法,关键在于求出代价函数的导数,即:
\frac {\partial J(\theta_0,\theta_1)}{\partial \theta_j}=\frac{1}{2m}\frac {\partial \sum^m_{i=1}(h_{\theta}(x^{(i)})-y^{(i)})^2}{\partial \theta_j}
j=0
\frac {\partial J(\theta_0,\theta_1)}{\partial \theta_0}=\frac{1}{m}\sum^m_{i=1}(h_\theta{(x^{(i)})-y^{(i)}})
j=1:
\frac {\partial J(\theta_0,\theta_1)}{\partial \theta_1}=\sum^{m}_{i=1}((h_\theta(x^{(i)})-y^{(i)})\cdot x^{(i)})
因此将算法改成:
\theta_0 := \theta_0- \alpha \frac{1}{m}\sum^m_{i=1}(h_\theta{(x^{(i)})-y^{(i)}})

\theta_1 := \theta_1- \alpha \frac {1}{m}\sum^{m}_{i=1}((h_\theta(x^{(i)})-y^{(i)})\cdot x^{(i)})

这种梯度下降的算法称之为**批量梯度下降算法”,主要特点:

上一篇下一篇

猜你喜欢

热点阅读