机器学习和人工智能入门深度学习·神经网络·计算机视觉深度学习-推荐系统-CV-NLP

《深度学习Ng》课程学习笔记01week2——神经网络基础

2017-09-05  本文已影响108人  033a1d1f0c58

http://write.blog.csdn.net/mdeditor#!postId=77852727

2.1 二分分类

二分类例子:
判断图片中是否有猫:
将图片RGB矩阵拉伸为向量:



使用上面的特征向量来判断图片中是否有猫。

2.2 logistic 回归

2.3 logistic 回归损失函数

这里给出的是交叉熵损失函数:

2.4 梯度下降法

为了最小化代价函数,找到 w,b 的最优解


对 代价函数对 w,b 求导,再根据学习率,更新 w 和 b :

2.5 到 2.8 是非常基础的导数讲解,这里就不做笔记了。

2.9 logistic 回归中的梯度下降法

2.10 m 个样本的梯度下降

计算步骤为:

2.11 向量化

我们讲上述的计算步骤向量化:

向量化 和 循环的代码对比:

我们可以看到向量化比循环的代码快了300倍左右。

2.12 向量化的更多例子


回到我们梯度下降的步骤,将其改为向量化:

2.13 向量化 logistic 回归

2.14 向量化 logistic 回归的梯度输出

进一步向量化 logistic 回归:

进一步向量化 梯度下降:


2.15 Python 中的广播

例子:
计算事物的能量成分比例:

python 代码如下:

axis = 0,列相加;axis = 1,行相加。

其他例子:

总结:

2.16 关于 python / numpy 向量的说明

这里写图片描述
上一篇 下一篇

猜你喜欢

热点阅读