数据挖掘十大经典算法(1)——朴素贝叶斯(Naive Bayes

2017-12-15  本文已影响0人  Frankie8713

在此推出一个算法系列的科普文章。我们大家在平时埋头工程类工作之余,也可以抽身对一些常见算法进行了解,这不仅可以帮助我们拓宽思路,从另一个维度加深对计算机技术领域的理解,做到触类旁通,同时也可以让我们搞清楚一些既熟悉又陌生的领域——比如数据挖掘、大数据、机器学习——的基本原理,揭开它们的神秘面纱,了解到其实很多看似高深的领域,其实背后依据的基础和原理也并不复杂。而且,掌握各类算法的特点、优劣和适用场景,是真正从事数据挖掘工作的重中之重。只有熟悉算法,才可能对纷繁复杂的现实问题合理建模,达到最佳预期效果。

本系列文章的目的是力求用最干练而生动的讲述方式,为大家讲解由国际权威的学术组织the IEEE International Conference on Data Mining (ICDM) 于2006年12月评选出的数据挖掘领域的十大经典算法。它们包括:


1. C4.5(c4.5决策树算法)

2. k-Means(k均值算法)

3. SVM(支持向量机)

4. Apriori(先验算法)

5. EM(期望最大算法)

6. PageRank(google的网页排序算法)

7. AdaBoost(Adaptive Boosting自适应增强算法)

8. kNN(k近邻算法)

9. Naive Bayes(朴素贝叶斯)

10. CART(分类与回归树)

一点铺垫

本文作为本系列的第一篇,在介绍具体算法之前,先简单为大家铺垫几个数据挖掘领域的常见概念:

在数据挖掘领域,按照算法本身的行为模式和使用目的,主要可以分为分类(classification),聚类(clustering)和回归(regression)几种,其中:

打几个不恰当的比方

另外,还有一个经常有人问起的问题,就是数据挖掘机器学习这两个概念的区别,这里一句话阐明我自己的认识:机器学习是基础,数据挖掘是应用。机器学习研制出各种各样的算法,数据挖掘根据应用场景把这些算法合理运用起来,目的是达到最好的挖掘效果。

当然,以上的简单总结一定不够准确和严谨,更多的是为了方便大家理解打的比方。如果大家有更精当的理解,欢迎补充和交流。

进入正题

好了,铺垫了这么多,现在终于进入正题!
作为本系列入门的第一篇,先为大家介绍一个容易理解又很有趣的算法——朴素贝叶斯

先站好队,朴素贝叶斯是一个典型的有监督的分类算法

贝叶斯定理

光从名字也可以想到,要想了解朴素贝叶斯,先要从贝叶斯定理说起。
贝叶斯定理是我们高中时代学过的一条概率学基础定理,它描述了条件概率的计算方式。不要怕已经把这些知识还给了体育老师,相信你一看公式就能想起来。

Thomas Bayes和他的贝叶斯公式

P(A|B)表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。其基本求解公式为:


其中,P(AB)表示A和B同时发生的概率,P(B)标识B事件本身的概率。

贝叶斯定理之所以有用,是因为我们在生活中经常遇到这种情况:我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出,但我们更关心P(B|A)。

举个栗子,通过历次美国大选,我们可以得知,投票给共和党的选票有多大概率来自加州,但我们更关心的是,一张来自加州的选票,有多大概率会投给共和党
(当然,美国大选真正的投票机制并不是一人一票的简单投票制,这里只是为了示意)。

而贝叶斯定理就为我们打通从P(A|B)获得P(B|A)的道路。
下面不加证明地直接给出贝叶斯定理:


朴素贝叶斯的基本思路

有了贝叶斯定理这个基础,下面来看看朴素贝叶斯算法的基本思路。

朴素贝叶斯的核心思想就是,你不是要给我分类吗?我算出自己属于各个分类的条件概率,属于谁的概率最大,就归入哪一类。

你看,其思想就是这么的朴素。那么,属于每个分类的概率该怎么计算呢?下面我们先祭出形式化语言!

  1. x = {a1, a2, ..., am}为一个待分类项,而每个a为x的一个特征属性。

  2. 有类别集合C = {y1, y2, ..., yn}

  3. 我们的目的是要计算以下值P(y1|x), P(y2|x), ... ,P(yn|x)

  4. 如果P(yk|x) = max{P(y1|x), P(y2|x), ... ,P(yn|x)}
    x属于yk

那么现在的关键就是如何计算第3步中的各个条件概率。我们可以这么做:

  1. 找到一个已知分类的待分类项集合,这个集合叫做训练样本集。

  2. 统计得到在各类别下各个特征属性的条件概率估计。即
    P(a1|y1), P(a2|y1),...,P(am|y1); P(a1|y2), P(a2|y2),...,P(am|y2); ...; P(a1|yn), P(a2|yn),...,P(am|yn);

  3. 如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导:

因为分母对于所有类别为常数,因为我们只要将分子最大化皆可。又因为各特征属性是条件独立的,所以有:

别被形式化吓倒,我们来举个栗子

如果你也跟我一样,对形式化语言有严重生理反应,不要怕,直接跳过前面这一坨,我们通过一个鲜活的例子,用人类的语言再解释一遍这个过程。

以下这个例子转自博客http://www.ruanyifeng.com/blog/2013/12/naive_bayes_classifier.html

某个医院早上收了六个门诊病人,如下表。

症状 职业 疾病
打喷嚏 护士 感冒
打喷嚏 农夫 过敏
头痛 建筑工人 脑震荡
头痛 建筑工人 感冒
打喷嚏 教师 感冒
头痛 教师 脑震荡

现在又来了第七个病人,是一个打喷嚏的建筑工人。请问他最有可能患有何种疾病?

本质上,这就是一个典型的分类问题,症状职业是特征属性,疾病种类是目标类别

根据贝叶斯定理

P(A|B) = P(B|A) P(A) / P(B)

可得

P(感冒|打喷嚏x建筑工人)
    = P(打喷嚏x建筑工人|感冒) x P(感冒)
    / P(打喷嚏x建筑工人)

假定"打喷嚏"和"建筑工人"这两个特征是独立的,因此,上面的等式就变成了

P(感冒|打喷嚏x建筑工人)
    = P(打喷嚏|感冒) x P(建筑工人|感冒) x P(感冒)
    / P(打喷嚏) x P(建筑工人)

这是可以计算的。

P(感冒|打喷嚏x建筑工人)
    = 0.66 x 0.33 x 0.5 / 0.5 x 0.33
    = 0.66

因此,这个打喷嚏的建筑工人,有66%的概率是得了感冒。同理,可以计算这个病人患上过敏或脑震荡的概率。比较这几个概率,就可以知道他最可能得什么病。

再举个栗子

接下来,我们再举一个朴素贝叶斯算法在实际中经常被使用的场景的例子——文本分类器,通常会用来识别垃圾邮件。
首先,我们可以把一封邮件的内容抽象为由若干关键词组成的集合,这样是否包含每种关键词就成了一封邮件的特征值,而目标类别就是属于垃圾邮件不属于垃圾邮件

假设每个关键词在一封邮件里出现与否的概率相互之间是独立的,那么只要我们有若干已经标记为垃圾邮件和非垃圾邮件的样本作为训练集,那么就可以得出,在全部垃圾邮件(记为Trash)出现某个关键词Wi的概率,即P(Wi|Trash)

而我们最重要回答的问题是,给定一封邮件内容M,它属于垃圾邮件的概率是多大,即P(Trash|M)

根据贝叶斯定理,有

P(Trash|M) = P(M|Trash) * P(Trash) / P(M)

我们先来看分子:
P(M|Trash)可以理解为在垃圾邮件这个范畴中遇见邮件M的概率,而一封邮件M是由若干单词Wi独立汇聚组成的,只要我们所掌握的单词样本足够多,因此就可以得到

P(M|Trash) = P(W1|Trash) * P(W2|Trash) * ... P(Wn|Trash)

这些值我们之前已经可以得到了。

再来看分子里的另一部分P(Trash),这个值也就是垃圾邮件的总体概率,这个值显然很容易得到,用训练集中垃圾邮件数除以总数即可。

而对于分母来说,我们虽然也可以去计算它,但实际上已经没有必要了,因为我们要比较的P(Trash|M)P(non-Trash|M)的分母都是一样的,因此只需要比较分子大小即可。

这样一来,我们就可以通过简单的计算,比较邮件M属于垃圾还是非垃圾二者谁的概率更大了。

朴素贝叶斯朴素在哪?

朴素贝叶斯的英文叫做Naive Bayes,直译过来其实是天真的贝叶斯,那么他到底天真在哪了呢?

这主要是因为朴素贝叶斯的基本假设是所有特征值之间都是相互独立的,这才使得概率直接相乘这种简单计算方式得以实现。然而在现实生活中,各个特征值之间往往存在一些关联,比如上面的例子,一篇文章中不同单词之间一定是有关联的,比如有些词总是容易同时出现。

因此,在经典朴素贝叶斯的基础上,还有更为灵活的建模方式——贝叶斯网络(Bayesian Belief Networks, BBN),可以单独指定特征值之间的是否独立。这里就不展开了,有兴趣的同学们可以做进一步了解。

优缺点

最后我们来对这个经典算法做个点评:

优点:

缺点:


好了,对于朴素贝叶斯的介绍就到这里,不知道各位看完之后是否会对数据挖掘这个领域产生了一点兴趣了呢?

上一篇下一篇

猜你喜欢

热点阅读