7.gitchat训练营-朴素贝叶斯分类器——从贝叶斯定理到分类

2019-03-08  本文已影响0人  风吹柳_柳随风

1.分类VS回归

Classification VS Regression
        分类模型VS回归模型,最根本的不同:前者是预测一个标签(类型、类别);后者则是预测一个量。
        换一个角度来看,分类模型输出的预测值是离散值;而回归模型输出的预测值则是连续值。也就是说输入一个样本给模型,回归模型给出的预测结果是在某个值域(一般是实数域或其子集)上的任意值;而分类模型则是给出特定的某几个离散值之一。

2.贝叶斯定理

贝叶斯公式如下:
p(A|B)=\frac{P(B|A)P(A)}{P(B)}
        用语言解释就是:在 B 出现的前提下 A 出现的概率,等于 A 和 B 都出现的概率除以 B 出现的概率。
一般化的贝叶斯公式
        更一般化的情况,假设事件 A 本身又包含多种可能性,即 A 是一个集合:A=\begin{Bmatrix}A_1,A_2,...,A_n\end{Bmatrix},那么对于集合中任意的A_i,贝叶斯定理可用下式表示:
P(A_i|B)=\frac{P(B|A_i)P(A_i)}{\sum_jP(B|A_j)P(A_j)}
连续概率的贝叶斯定理的形式为(下面所说的A和B对应之前贝叶斯公式中的A与B):
f(x|y)=\frac{f(y|x)f(x)}{\int_{-\infty}^\infty f(y|x)f(x)dx}
        其中,f(x|y)是给定B=y时,A的后验分布;f(x)则是A的先验分布概率函数。
        为了方便起见,这里的 f 在这些专有名词中代表不同的函数。

3.朴素贝叶斯分类器(Naïve Bayes Classifier)

        “朴素贝叶斯”(Naïve Bayes)既可以是一种算法——朴素贝叶斯算法,也可以是一种模型——朴素贝叶斯分类模型(分类器)。

朴素贝叶斯算法

        首先讲作为算法的 Naïve Bayes,朴素贝叶斯算法可以直接利用贝叶斯定理来实现。先来看简洁版的贝叶斯定理:
p(A|B)=\frac{P(B|A)P(A)}{P(B)}
        在之前的几个例子中,为了便于理解,当 B 作为 A 的条件出现时,我们假定它总共只有一个特征。但在实际应用中,很少有一件事只受一个特征影响的情况,往往影响一件事的因素有多个。假设,影响B的因素有n个,分别是b_1,b_2,...,b_n
        则P(A|B)可以写为:
P(A|b_1,b_2,...,B_n)=\frac{P(A)P(b_1,b_2,...,b_n|A)}{P(b_1,b_2,...,b_n)}
        A的先验概率P(A)和多个因素的联合概率P(b_1,b_2,...,b_n)都是可以单独计算的,与Ab_i之间的关系无关,因此这两项都可以被看作常数。
        对于求解P(A|b_1,b_2,...,b_n)在,最关键的是P(b_1,b_2,...,b_n|A)。根据链式法则可得:
P(b_1,b_2,...,b_n|A)=P(b_1|A)P(b_2|A,b_1)P(b_3|A,b_1,b_2)\cdots P(b_n|A,b_1,b_2,...,b_n)
        上面的求解过程,看起来好复杂,但是,如果从b_1b_n这些特征之间,在概率分布上是条件独立的,也就是说每个特征b_i与其他特征都不相关。
        那么,当i\neq j时,有P(b_i|A,b_j)=P(b_i|A)——无关条件被排除到条件概率之外。因此,当b_1,b_2,...,b_n中每个特征与其他n-1个特征都不相关时,就有:
P(A|b_1,b_2,...b_n)=\frac{1}{z}P(A)\prod_{i=1}^nP(b_i|A)
        注意此处的z对应P(b_1,b_2,...,b_n)

一款极简单的朴素贝叶斯分类器

        上式中的b_1b_n是特征(Feature),而A则是最终的类别(Class),所以,换一个写法:
P(C|F_1,F_2,...,F_n)=\frac{1}{z}P(C)\prod_{i=1}^nP(F_i|C)
        这个公式也就是我们的朴素贝叶斯分类器的模型函数
        它用来做预测时是这样的:

上一篇下一篇

猜你喜欢

热点阅读