Day14~15 第六章 Logistic 回归与最大熵模型
1 Logistc 回归模型
1.1 Logistic 分布
定义 6.1 (logistic 分布) 设 是连续随机变量, 服从 logistic 分布是指 具有下列分布函数和密度函数
其中, 为位置参数, 为形状参数。
1.2 二项 logistic 回归模型
二项 logistic 回归模型由条件概率分布 表示,形式为参数化的 logistic 分布。这里随机变量 取值为实数, 取值为 0 或 1。
定义 6.2 (二项 logistic 回归模型)其中, 为输入, 为输出, 和 为参数, 称为权重向量, 称为偏置,符号 “” 表示向量内积。
二项 logistic 回归模型对于给定的输入实例 ,可以通过定义计算 与 并比较大小,将实例 分到概率值更大的那一类。
有时为了方便,令 ,,有 。形式上仍然记为 ,此时 logistic 回归模型为:
1.3 模型参数估计
Logisitic 回归模型学习时,给定训练集 ,其中,,,一般可以应用极大似然估计法估计模型参数。求得对数似然函数为
对 求最大值,即可求到 的估计值 。那么学习得到的模型为
1.4 Logisitc 回归模型的优缺点
1. 优点
- 实现简单,应用广泛。
- 分类时计算量非常小,速度很快,存储资源低。
- 便利的观测样本概率分数。
2. 缺点
- 当特征空间很大时,逻辑回归的性能不是很好。
- 容易欠拟合,一般准确度不太高。
- 依赖所有数据,很难处理数据不平衡问题;
- 处理非线性数据较麻烦。在不引入其他方法的情况下,只能处理线性可分的数据。
2 最大熵模型
2.1 最大熵原理
最大熵原理认为:学习概率模型时,在所有可能的概率模型(分布)中,熵最大的模型是最好的模型。
假设离散随机变量 的概率分布为 ,则其熵为熵满足下列不等式其中 为 的取值个数,在前面的章节曾证明过,当且仅当 的分布为均匀分布时右边的等号成立。即当 服从均匀分布时,熵最大。
2.2 最大熵模型的定义
定义 6.3 (最大熵模型) 假设满足所有约束条件的模型集合为其中, 表示特征函数 关于经验分布 的期望 表示特征函数 关于模型 与经验分布 的期望特征函数 描述输入 与输出 之间的一个事实,若满足则取 1,否则取 0。定义在条件概率分布 熵的条件熵为则模型集合 中条件熵 最大的模型称为最大熵模型。
2.3 最大熵模型的学习
对于给定的数据集 以及特征函数 ,最大熵模型的学习等价于约束最优化问题:
最大熵模型的求解思路和步骤如下:
- 运用 Lagrange 乘子法将求解最大熵模型等价的约束最优化的问题转化为无约束最优化的问题,该问题为极小极大问题。
- 利用对偶问题的等价性,将无约束最优化问题转化为求解对偶形式的极大极小问题。
解得其中 称为规范因子; 是特征函数; 是特征的权值。
模型 就是所求的最大熵模型。对偶函数的极大化等价于最大熵模型的极大似然估计。
3 最大熵模型与 Logistic 模型的关系
当类标签只有两个的时候,最大熵模型就是logistics回归模型。证明如下:
设 ,并且由于类标签只有两个故 ,取特征函数
由 2.3 小节可知最大熵模型为
于是当 时有
同样当 时有
此时,最大熵模型为
即为 logistic 回归模型。Q.E.D.
4 习题
习题6.2 写出 logistic 回归模型学习的梯度下降算法。
解:
logistic 回归模型为:
求得对数似然函数为
将 求梯度,可得
其中
于是 Logistic 回归模型学习的梯度下降算法: