第三章 线性模型

2022-01-15  本文已影响0人  乘瓠散人

基本形式

线性模型试图学得一个通过属性的线性组合来进行预测的函数,即 f(x) = wx + b。由于w直观表达了各属性在预测中的重要性,因此线性模型具有很好的可解释性

线性回归

均方误差是回归任务中最常用的性能度量。均方误差有非常好的几何意义,它对应了常用的欧氏距离。基于均方误差最小化来进行模型求解的方法称为最小二乘法

逻辑回归

如果要做二分类任务,线性回归模型产生的预测值是z=wx+b 是实值,因此,我们需要将实值转化成离散值0/1,最理想的是单位阶跃函数z>0判为正例,z<0判为负例,z=0可任意判别。但是单位阶跃函数不连续,因此我们考虑找到一种单调可微的替代函数——对数几率函数(logistic function):

y = \frac{1}{1+e^{-z}}

该函数是一种Sigmoid函数,它将z值转化为一个接近0或1的y值,并且其输出值在z=0附近变化很陡。将y视为样本作为正例的类后验概率估计p(y=1|x),之后可通过极大似然法来估计参数wb

逻辑回归虽然名字叫回归,实际是一种分类任务学习方法。

线性判别分析

线性判别分析(Linear Discriminant Analysis, LDA)是一种经典的线性学习方法,在二分类问题上最早由Fisher提出。

LDA的思想:给定训练样本集,设法将样本投影到一条直线上,使得同类样本的投影点尽可能接近异类样本的投影点尽可能远离;在对新样本进行分类时,也将其投影到该直线上,再根据投影点的位置来确定新样本的类别。

LDA也可以推广到多分类任务中。多分类LDA将样本投影到d'维空间,d'通常远小于原有的属性数d。于是,可以通过这个投影来减小样本点的维数,且投影过程中使用了类别信息,因此LDA也常被视为一种经典的监督降维技术。

多分类学习

我们可以基于一些基本策略,将多分类任务拆解为若干个二分类任务求解。

类别不平衡

类别不平衡是指分类任务中不同类别的训练样本数目差别很大的情况。

《西瓜书》
《南瓜书》

上一篇 下一篇

猜你喜欢

热点阅读