程序员谈写作忘忧社

2021-01-15 什么是数据挖掘?论文中常用的有哪些算法?

2021-01-15  本文已影响0人  学术中心

官方解释

通俗理解:

数据挖掘就是:从数据中获取信息,探究数据之间的关系。可以做到两类事情:

第一:构建一个算法,算法可以帮助我解决问题做预测,但是算法本身的程序和公式步骤并无法明确。(也就是我把数据输进去算法,它自动会把结果跑出来,但是它怎么跑的我们不知道,这是算法自己学到的知识,但我们无法获知)如神经网络感知机、深度学习。

第二:构建算法帮我们解决问题的同时,我们可以对算法内部进行解释(简言之,就是算法学到的是我们也可以获取的知识)如线性回归:我们可以自己构建线性回归方程、输入自变量,因变量会随之输出,我们甚至可以根据系数判断变量之间的相互关系;如聚类算法:一开始我们不知道这些数据是什么类别,是算法帮我们分类,我们可以观察结果判断每一个类别的特征;如关联规则:这是一个基于概率的东西……这就是从模型到数据发现的过程。

那么我们了解数据挖掘是什么以后,大家一起来学习一下数据发掘可以分为哪几种类型呢?下面就给大家说明论文中常见的一些数据挖掘的提法:

第一:根据是否需要因变量来分,也就是说“我们是否已经需要知道结果用什么变量表示”,需则为“有监督学习”,不需则为“无监督学习”。例如典型的有监督学习:线性回归,这就是必须有因变量才可以做的算法,但无监督学习的算法是不需要因变量的,比如聚类,我们一开始没有设定划类依据,是最后分出来类别看的种类属性。继续往下细分,有监督学习又可以根据因变量是否为连续变量分为:回归和分类两种。如自变量为体重,回归预测的①因变量为身高(连续变量)就是回归;②因变量为性别(离散变量)就是分类。

第二:根据本质可以分为:线性算法和非线性算法。因为数据挖掘本身是一个高维研究,即空间中是否能够构建一个超平面。

第三:为了大家写论文过程中遇到模型学会如何抉择,根据算法的来源进行分类,分为:基于回归;基于划分;基于概率三种。

综上可知,算法的新出现基本都是对前一个算法的沿袭和改进,为了让大家更好明确这三类直接错综复杂的关系,我们通过一个思维导图来具体呈现:

三张图片中黄色字体代表一类算法,蓝色字体是该算法的小类。以上所有名称都是会在论文的文献综述和实证分析中出现的方法。其中,基于回归主要分为逻辑回归和正则化方法两种,都是用回归方程来预测的方法;基于划分是平时的一些人脑中分类的模式进行举例;基于概率就是利用概率论不同的几个公式衍生的算法。

基于回归的所有算法都是有监督算法,除了这些,有监督算法还包含:基于划分的决策树(ID3、C4.5、CART)、集成算法(随机森林、Boosting)、感知机和K-近邻算法,基于概率的朴素贝叶斯分类(贝叶斯算法)。其余都是无监督算法。

本篇就先到这里,给大家简介了数据挖掘定义及其分类,下一篇小编将带大家学习每一个小类算法在论文中的具体选择和应用。

上一篇下一篇

猜你喜欢

热点阅读