大数据部落机器学习与数据挖掘首页投稿(暂停使用,暂停投稿)

[机器学习实战]k近邻算法

2017-10-09  本文已影响44人  PetitBread

从一个最基本的算法示例来入门机器学习

第一个分类算法 --- k-近邻算法(简单地说,k近邻算法采用测量不同特征值之间的距离方法进行分类。)


前言:


需求分析,使用k-近邻算法改进约会网站的配对效果

海伦一直使用在线约会网站寻找适合自己的约会对象。尽管约会网站会推荐不同的 人选,但她没有从中找到喜欢的人。经过一番总结,她发现曾交往过三种类型的人:

这次的分类软件可以更好地帮助她将匹配对象划分到确切的分类中


k-近邻算法流程

  1. 收集数据:提供文本文件
  2. 准备数据: 使用 Python 解析文本文件
  3. 分析数据:使用 Matplotlib 画二维扩散图
  4. 训练算法:此步驟不适用于卜近邻算法
  5. 使用海伦提供的部分数据作为测试样本,测试样本和非测试样本的区别在于:测试样本是已经完成分类的数据,如果预测分类与实际类别不同,则标记为一个错误
  6. 使用算法:产生简单的命令行程序,然后海伦可以输入一些特征数据以判断对方是否
    为自己喜欢的类型

准备数据:从文本文件中解析数据

本次数据来源海伦的约会数据,放在文本文件 datingTestSet2.txt 中,每 个样本数据占据一行,总共有1000行。样本主要包含以下3种特征:

在将上述特征数据输人到分类器之前,必须将待处理数据的格式改变为分类器可以接受的格式 。在kNN.py中创建名为file2matrix的函数,以此来处理输人格式问题。该函数的输人为文件名字符串,输出为训练样本矩阵和类标签向量。

def file2matrix(filename):
    love_dictionary = {'非常喜欢': 3, '一般喜欢': 2, '讨厌': 1}
    fr = open(filename)
    arrayOLines = fr.readlines()
    numberOfLines = len(arrayOLines)  # get the number of lines in the file
    returnMat = zeros((numberOfLines, 3))  # prepare matrix to return
    classLabelVector = []  # prepare labels return
    index = 0
    for line in arrayOLines:
        line = line.strip()
        listFromLine = line.split('\t')
        returnMat[index, :] = listFromLine[0:3]
        if (listFromLine[-1].isdigit()):
            classLabelVector.append(int(listFromLine[-1]))
        else:
            classLabelVector.append(love_dictionary.get(listFromLine[-1]))
        index += 1
    return returnMat, classLabelVector


首先我们需要知道文本文件包含多 少行。打开文件,得到文件的行数。然后创建以零填充的矩阵NumPy(实际上,NumPy是一 个二维数组,这里暂时不用考虑其用途)。为了简化处理,我们将该矩阵的另一维度设置为固定 值3 , 你可以按照自己的实际需求增加相应的代码以适应变化的输人值。循环处理文件中的每行 数据 , 首先使用函数line.strip()截取掉所有的回车字符,然后使用tab字符\t将上一步得 到的整行数据分割成一个元素列表。接着,我们选取前3个元素,将它们存储到特征矩阵中。Python 语言可以使用索引值-1表示列表中的最后一列元素,利用这种负索引,我们可以很方便地将列表 的最后一列存储到向量classLabelVector中。需要注意的是,我们必须明确地通知解释器,告 诉它列表中存储的元素值为整型,否则Python语言会将这些元素当作字符串处理。以前我们必须自己处理这些变量值类型问题.

测试一下,读出来的数据是这样

屏幕快照 2017-10-09 下午3.46.43.png

散点图,观察数据的样本分布

只是为了能比较直观的看到样本之间的模式,不在算法内

一般来说,图形化的方式能更直观地展示数据。接下来下面用 Matplotlib 来图形化展示数据内容,看一下数据之间的模式,测试代码。

def matplotTest():
    datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
    fig = plt.figure()
    ax = fig.add_subplot(111)
    ax.scatter(datingDataMat[:,1],datingDataMat[:,2],15.0*array(datingLabels),15.0*array(datingLabels))
    plt.show()

图二.png

这是玩视频游戏所耗时间百分比(X)与每周消费的冰激凌公升数的散点图(Y),可以看到三个样本的分布情况,不过区分度不是很清晰

接下来取矩阵列的0和1列

datingDataMat[:,0],datingDataMat[:,1]
图三.png

这是每年飞行常客里程数(X)与玩视频游戏所占百分比的约会数据散点图(Y)

清晰地标识了三个不同的样本分类区域,具有不同爱好的人其类别区域也不同。

准备数据:归一化数值

计算俩点间的距离公式

图四.png

很容易发现,上面方程中数字差值最大的属性对计算结果的影响最大,也就是说,每年 获取的飞行常客里程数对于计算结果的影响将远远大于表2-3中其他两个特征— 玩视频游戏的 和每周消费冰洪淋公升数— 的影响。而产生这种现象的唯一原因,仅仅是因为飞行常客里程数 远大于其他特征值。但海伦认为这三种特征是同等重要的,因此作为三个等权重的特征之一,飞 行常客里程数并不应该如此严重地影响到计算结果。

在处理这种不同取值范围的特征值时,我们通常采用的方法是将数值归一化,如将取值范围 处理为0到1或者-1到1之间。下面的公式可以将任意取值范围的特征值转化为0到1区间内的值:

newValue = {oldValue-min)/(max-min)

其中min和max分别是数据集中的最小特征值和最大特征值。虽然改变数值取值范围增加了 分类器的复杂度,但为了得到准确结果,必须这样做。定义一个函数,将数字特征值转化为0到1的区间。

为了归一化特征值,我们必须使用当前值减去最小值,然后除以取值范围. 需要注意的是,特征 值矩阵有1000 * 3个值,而minVals和range的值都为1 * 3。为了解决这个冋题,我们使用NumPY函数将变量内容复制成输入矩阵同样大小的矩阵,注意这是具体特征值相除 ,而 对于某些数值处理软件包,/可能意味着矩阵除法,但在NumPy库中,矩阵除法需要使用函数 linalg .solve (matA,matB) 。

def autoNorm(dataSet):
    minVals = dataSet.min(0)
    maxVals = dataSet.max(0)
    ranges = maxVals - minVals
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0]
    normDataSet = dataSet - tile(minVals, (m, 1))
    normDataSet = normDataSet / tile(ranges, (m, 1))  # element wise divide
    return normDataSet, ranges, minVals
    
#将每列的最小值放在变量minVals中,将最大值放在变量 maxVals中,其中dataSet.min(0)中的参数0使得函数可以从列中选取最小值,而不是选取当前行的最小值。然后,函数计算可能的取值范围,并创建新的返回矩阵    

这里可以打印出归一之后的结果,测试代码

def solveTest():
    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
    print autoNorm(datingDataMat)

输出

图五.png

测试算法:作为完整程序验证分类器

机器学习算法一个很重要的工作就是评估算法的正确率,通常我们只提供已有数据的90%作为训练样本来训练分类 器 ,而使用其余的10%数据去测试分类器,检测分类器的正确率,这里随意选择10%数据而不影响其随机性。

使用错误率来检测分类器的性能。对于分类器来说,错误率就是分类 器给出错误结果的次数除以测试数据的总数,完美分类器的错误率为0,而错误率为1.0的分类器 不会给出任何正确的分类结果。代码里我们定义一个计数器变量,每次分类器错误地分类数据, 计数器就加1, 程序执行完成之后计数器的结果除以数据点总数即是错误率

def classify0(inX, dataSet, labels, k):
    dataSetSize = dataSet.shape[0]
    diffMat = tile(inX, (dataSetSize, 1)) - dataSet

    sqDiffMat = diffMat ** 2
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances ** 0.5
    sortedDistIndicies = distances.argsort() #是按照距离从高到底排序
    classCount = {}
    for i in range(k): #表示提取前k个值
        voteIlabel = labels[sortedDistIndicies[i]] #排在第i位置的类别
        classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1 #对 classCount[voteIlabel] 的值进行加一,如果不存在则初始化为1
    sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True) #出现频次列表classCount 进行倒序排序
    return sortedClassCount[0][0]
#分类器

classify0分类算法流程,对未知类别属性的数据集中的每个点依次执行以下操作:
(1)计算已知类别数据集中的点与当前点之间的距离;
(2)按照距离递增次序排序;
(3)选取与当前点距离最小k几个点;
(4)确定前k个点所在类别的出现频率;
(5)返回前k个点出现频率最高的类别作为当前点的预测分类。


def datingClassTest():
    hoRatio = 0.50  # hold out 10%
    datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')  # load data setfrom file
    normMat, ranges, minVals = autoNorm(datingDataMat)
    m = normMat.shape[0]
    numTestVecs = int(m * hoRatio)
    errorCount = 0.0
    for i in range(numTestVecs):
        classifierResult = classify0(normMat[i, :], normMat[numTestVecs:m, :], datingLabels[numTestVecs:m], 3)
        print "the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i])
        if (classifierResult != datingLabels[i]): errorCount += 1.0
    print "the total error rate is: %f" % (errorCount / float(numTestVecs))
    print errorCount

从文件中读取数据并将其转换为归一化特征值。接着计算测试向量的数量,此步决定了 normMat向量中哪些数据用于测试,哪些数据用于分类器的训练样本;然后将这两部分数据输人到原始kNN分类器函数classifyO。最后,函数计算错误率并输出结果

调用测试函数 datingClassTest(),输出

图六.png

可以看到,约会数据集的错误率5%,还算是一个可以接受的结果,可以改变函数 datingClassTest内变量 hoRatio 和变量 k 的值,检测错误率是否随着变量值的变化而增加。依 赖于分类算法、数据集和程序设置,分类器的输出结果可能有很大的不同

这个例子表明我们可以正确地预测分类,错误率是5%。海伦完全可以输人未知对象的 属性信息’由分类软件来帮助她判定某一对象的可交往程度:讨厌、一般喜欢、非常喜欢。

使用算法:构建完整可用系统

现在可以做出一个小程序,通过该程序海伦会在约会网站上找到某个人并输入他的信息。 程序会给出她对对方喜欢程度的预测值


def classifyPerson():
    resultList = ['讨厌', '一般喜欢', '非常喜欢']
    percentTats = float(raw_input( \
        "percentage of time spent playing video games?"))
    ffMiles = float(raw_input("frequent flier miles earned per year?"))
    iceCream = float(raw_input("liters of ice cream consumed per year?"))
    datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
    normMat, ranges, minVals = autoNorm(datingDataMat)
    inArr = array([ffMiles, percentTats, iceCream, ])
    classifierResult = classify0((inArr - \
                                  minVals) / ranges, normMat, datingLabels, 3)
    print "You will probably like this person: %s" % resultList[classifierResult - 1]

测试下,运行函数,依次输入

玩视频游戏的百分比?  12
每年的飞行公里数  30354
每周消费的冰淇淋公升数  2

然后可以得到 你对他的喜欢程度 非常喜欢 的结论


到此为止,算是初步摸到了机器学习的门槛,后续会有包括决策树,朴素贝叶斯等进阶算法的学习总结篇,共同进步.

WechatIMG1.jpeg
上一篇 下一篇

猜你喜欢

热点阅读