LR与SVM

2019-11-04  本文已影响0人  Manfestain

LR

最大化似然函数:L(w) = -\sum_{i=1}^{N}\sigma(w^Tx_i + b)^{y_i}(1 - \sigma(w^tx_i + b))^{1-y_i}

决策边界:y = I[w^Tx + b \geq 0]

核函数:log(1 + exp(-\sum_{i=1}^{n}\alpha_iK(x, x_i)))w^T\Phi(x) +b = \sum_{i=1}^{n}\alpha_iK(x, x_i) = 0

实际中LR不采用核函数方法,因为SVM只依赖于支持向量,而LR考虑每个点,这样核计算量非常大

多分类:P(y=i|x) = \frac{exp(w_i^Tx + b_i)}{\sum_{k}exp(w_k^Tx + b_i)}

SVM

寻找最大间隔:min\frac{1}{2}||w||^2

s.t. y_i(w^Tx_i + b) \geq 1, i=1…N

决策边界:y = I[w^Tx + b \geq 0]




如何选择LR和SVM

  1. 如果Feature的数量很大,跟样本数量差不多,选用LR或者是Linear Kernel的SVM。
  2. 如果Feature的数量比较小,样本数量一般,不算大也不算小,选用SVM+Gaussian Kernel
  3. 如果Feature的数量比较小,而样本数量很多,需要手工添加一些feature变成第一种情况

在什么情况下,我们需要做高维映射呢?我们之所以要做映射,就是因为特征数量不够多。如果特征数量多,那么用现有的特征就足够了。所以情况(1)的时候,我们特征数量多。并不需要映射。

上一篇 下一篇

猜你喜欢

热点阅读