Code

logistic 回归(内附推导)

2018-06-02  本文已影响0人  快乐的小飞熊

主要思考几个问题:

1、logistic回归的应用场景

注意:这里用的是“可能性”,而非数学上的“概率”,logisitc回归的结果并非数学定义中的概率值,不可以直接当做概率值来用。

2、为什么损失函数不选MSE,而采用极大似然估计?

答:对于线性回归,我们会选择MSE, 因为其J(θ)是凸函数,但是对于logistic回归,由于进行了sigmoid非线性映射就是非凸函数,所以可能在寻优的时候容易陷入局部最优,所以考虑把sigmoid作log,得到的J(θ)为:


logistic损失函数.png

对其求二阶导,结果大于0,说明其是凸函数,在用梯度下降法寻优时,可以保证找到全局最小。

3、logistic回归和线性回归的关系是什么?
4、logistic回归为什么是线性模型?

很容易可以从sigmoid函数看出,当θTx>0 时,y=1,否则 y=0。θTx=0 是模型隐含的分类平面(在高维空间中,我们说是超平面),所以说logistic回归本质上是一个线性模型。

注意:这里需要区分假设函数和决策边界:

在逻辑回归中,假设函数(h=g(z))用于计算样本属于某类别的可能性;决策函数(h=1(g(z)>0.5))用于计算(给出)样本的类别;决策边界(θ^Tx=0)是一个方程,用于标识出分类函数(模型)的分类边界。

5、logistic回归的优点和缺点?

(2) 预测结果呈“S”型,因此从log(odds)向概率转化的过程是非线性的,在两端随着​log(odds)值的变化,概率变化很小,边际值太小,slope太小,而中间概率的变化很大,很敏感。 导致很多区间的变量变化对目标概率的影响没有区分度,无法确定阀值。

(3) 很难处理数据不平衡的问题。举个例子:如果我们对于一个正负样本非常不平衡的问题,把所有样本都预测为正也能使损失函数的值比较小。但是作为一个分类器,它对正负样本的区分能力不会很好。

(4) 逻辑回归本身无法筛选特征。有时候,我们会用gbdt来筛选特征,然后再上逻辑回归。

6、能不能推演到多分类?
7、附:logistic回归的推导过程
推导1.png
推导2.png

参考:
https://www.cnblogs.com/sparkwen/p/3441197.html
https://tech.meituan.com/intro_to_logistic_regression.html
Andrew Ng, CS 229 logistic regression
https://www.cnblogs.com/ModifyRong/p/7739955.html(需研究)
https://blog.csdn.net/Mr_HHH/article/details/79433094

上一篇下一篇

猜你喜欢

热点阅读