机器学习

Classification - Logistic Regres

2020-01-27  本文已影响0人  spraysss

Logistic Regression是一个二元分类监督算法
对于特征向量 x\in\mathbb{R}^n 有预测值\hat{y} 满足0 \leq \hat{y} \leq 1
其中w\in \mathbb{R}^n,b\in \mathbb{R}
\hat y=\sigma(w^Tx+b) 其中 \sigma(z)=\frac{1}{1+e^{-z}}

给定\{(x^{(1)},y^{(1)}),...,(x^{(m)},y^{(m)})\},希望 \hat{y}^{(i)} \approx y^{(i)}

cost function

cost function通过误差来衡量算法的好坏
J(w,b)=\frac{1}{m}\sum_{i=1}^{m}L(\hat y^{(i)},y^{(i)})

其中L(\hat y,y)=-(y \log \hat y+(1-y)\log(1-\hat y))

Gradient Descent

需要找到w和b,使得J(w,b)最小,由于J(w,b)是凸函数,所以梯度下降算法是有效的(\alpha为学习率)
w:=w-\alpha \frac{\partial j(w,b)}{\partial w}
b:=b-\alpha \frac{\partial j(w,b)}{\partial b}

Logistic Regression derivatives

recap

其中

finally
\theta_j:=\theta_j-\alpha \frac{1}{m}\sum_{i=1}^{m}(\hat y^{(x^i)}-y^i)x^{(i)}_j

最终梯度下降的方程和多元线性回归一致,比较神奇

one vs all

训练多个 Logistic Regression

上一篇下一篇

猜你喜欢

热点阅读