机器学习与数据挖掘机器学习逻辑回归

逻辑回归算法(二)

2018-09-11  本文已影响1人  owolf

一、线型回归模型(Linear Regression)

为了更好的实现分类,逻辑回归诞生了。

[逻辑回归是假设数据服从Bernoulli(伯努利)分布,因此LR属于参数模型]

二、逻辑回归(LR)

        通过在线性回归模型中引入Sigmoid函数,将线性回归的不确定范围的连续输出值映射到(0,1)范围内,成为一个概率预测问题。

1、如何求解模型的参数?

2、模型的优化-引入正则化

3、LR如何解决多分类问题?

注:softmax函数介绍

        输出向量中拥有最大权重的项对应着输入向量中的最大值“4”。这也显示了这个函数通常的意义:对向量进行归一化,凸显其中最大的值并抑制远低于最大值的其他分量。

使用softmax的多分类与使用Sigmoid的二分类有什么区别与联系? 

通过上面的推导可知,当多分类的K=2时,与使用Sigmoid的二分类是一致的。

4、LR如何解决线性不可分问题?

逻辑回归本质上是一个线性模型,但是,这不意味着只有线性可分的数据能通过LR求解,实际上,我们可以通过2种方式帮助LR实现:

(1)利用特殊核函数,对特征进行变换:把低维空间转换到高维空间,而在低维空间不可分的数据,到高维空间中线性可分的几率会高一些。

(2)扩展LR算法,提出FM算法。

更多详细内容参考:https://www.imooc.com/article/46843

上一篇下一篇

猜你喜欢

热点阅读