机器学习笔记 第6课:逻辑回归算法
2018-10-30 本文已影响3人
首席IT民工
逻辑回归是机器学习从统计领域借用的又一项技术。它是二元分类问题(即只有两种类型的分类问题)的首选方法。
逻辑回归和线性回归的类似之处在于,其目标是找到每个输入变量的权重系数。
与线性回归的不同之处在于,逻辑函数是非线性函数,逻辑回归使用非线性的逻辑函数对输出结果进行转化。
逻辑函数看起来像一个大S,能够将任何值转换为0到1的范围。
这很有用,因为我们可以对逻辑函数的输出应用一个规则,把输出结果转换到0和1之间的值(比如,如果小于0.5, 然后输出0),从而预测是哪一个类(类0,还是类1)。
鉴于模型的学习方式,逻辑回归所做的预测也可以当作是--给定数据实例属于类型0或类型1的概率。这对于需要对预测结果给出依据的问题很有帮助。
类似于线性回归,当你删除与输出变量无关的属性,以及彼此非常相似(相关)的属性时,逻辑回归算法会工作地更好。
逻辑回归是解决二元分类问题的模型,快速且有效。