数据挖掘十大算法介绍&优缺点

2019-09-30  本文已影响0人  Mr_Stark的小提莫

ICDM(the IEEE International Conference on Data Mining)2006年12月评选出了数据挖掘领域的十大经典算法:C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, Naive Bayes, and CART。参选的共18个算法,剩余8个为 FP-Tree,HITS,BIRCH,GSP,PrefixSpan, CBA,Finding reduct,gSpan。


C4.5

特点:

1) 用信息增益比来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足

2) 在树构造过程中进行剪枝

3) 能够完成对连续属性的离散化处理

4) 能够对不完整数据进行处理

优点:

1)易于理解

2)复杂度不高

3)准确率较高

4)对缺失值不敏感

5)能处理不相关特征数据

缺点:

1)(与CART比)树的构造过程中,需要对数据集进行多次的顺序扫描和排序,算法低效

2)容易过拟合

适用:数值型/标称型


k-Means

特点:试图找到数据中自然聚类的中心。假设对象属性来自于空间向量,并且目标是使各个群组内部的均方误差总和最小。

优点:易实现。

缺点:

1)收敛可能是局部最小值

2)在大规模数据集上收敛慢

适用:数值型。


SVM

特点:应用于分类&回归,将向量映射到一个更高维的空间里,在这个空间里建立有一个最大间隔超平面。在分开数据的超平面的两边建有两个互相平行的超平面。分隔超平面使两个平行超平面的距离最大化。假定平行超平面间的距离或差距越大,分类器的总误差越小。

优点:

1)泛化能力强

2)计算开销不大

3)结果易解释

缺点:

1)对参数和核函数的选择敏感

2)原始分类器只适用于二分类

适用:数值型&标称型


Apriori

特点:挖掘布尔关联规则频繁项集的算法。其核心是基于两阶段频集思想的递推算法。该关联规则在分类上属于单维、单层、布尔关联规则。在这里,所有支持度大于最小支持度的项集称为频繁项集,简称频集。

优点:易实现

缺点:在大型数据集上速度慢

适用:数值型&标称型


EM(最大期望)

特点:在概率模型中寻找参数最大似然估计的算法,其中概率模型依赖于无法观测的隐藏变量。最大期望经常用在机器学习和计算机视觉的数据集聚领域。


PageRank

PageRank根据网站的外部链接和内部链接的数量和质量俩衡量网站的价值。每个到页面的链接都是对该页面的一次投票, 被链接的越多,就意味着被其他网站投票越多。这个就是所谓的“链接流行度”——衡量多少人愿意将他们的网站和你的网站挂钩。


AdaBoost

特点:一种迭代算法,针对同一个训练集训练不同的弱分类器,把这些弱分类器集合起来,构成一个强分类器。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。

优点:

1)泛化错误率低

2)易编码

3)可用于多种分类器

4)无参数

缺点:对离群点敏感。

适用:数值型&标称型数据


kNN

特点:找到一个样本在特征空间中的k个特征空间中最邻近的样本中的大多数类别,则该样本也属于这个类别。

优点:

1)精度高

2)对异常值不敏感

3)无数据输入假定

缺点:

1)计算&空间密集型

适用:数值型&标称型


朴素贝叶斯

特点:所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。理论上误差率最小,但是实际上并非总是如此,因为NBC模型假设属性之间相互独立,所以在属性相关性较小时,NBC模型的性能最为良好。

优点:

1)数据少的情况下依然有效

2)可处理多类别问题

缺点:缺失值敏感

适用:标称型数据


CART树

特点:分类树/回归树。分类树有两个关键的思想——第一个是关于递归地划分自变量空间的想法(二元切分法);第二个想法是用验证数据进行剪枝(预剪枝、后剪枝)。回归树——树构建难度增加,但同时其分类效果也有提升。

优点:可对复杂/非线性数据建模

缺点:结果不易理解

适用:数值型&标称型数据

上一篇 下一篇

猜你喜欢

热点阅读