2017.11.05学习笔记1-k近邻算法原理

2017-11-05  本文已影响65人  Spytensor

目标

1、理解KNN算法的核心思想
2、理解KNN算法的实现
3、掌握KNN算法的应用步骤:数据处理、建模、运算和结果判定

1. kNN分类算法原理

1.1概述

K最近邻(k-Nearest Neighbor,KNN)分类算法是最简单的机器学习算法。
KNN算法的指导思想是“近朱者赤,近墨者黑”,由你的邻居来推断出你的类别。

本质上,KNN算法就是用距离来衡量样本之间的相似度
1.2 算法图示
  1. 训练数据集
  2. 距离或相似度的计算衡量
  3. k的大小


    image.png
  1. 已知两类“先验”数据,分别是蓝方块和红三角,他们分布在一个二维空间中
  2. 有一个未知类别的数据(绿点),需要判断它是属于“蓝方块”还是“红三角”类
  3. 考察离绿点最近的3个(或k个)数据点的类别,占多数的类别即为绿点判定类别
1.3 算法要点

1.3.1 计算步骤

1.3.2、相似度的衡量

(简单应用中,一般使用欧氏距离,但对于文本分类来说,使用余弦(cosine)来计算相似度就比欧式(Euclidean)距离更合适)

1.3.3、类别的判定

1.4 算法不足之处
  1. 样本不平衡容易导致结果错误
  1. 计算量较大

代码示例1 (sklearn)

import numpy as np
from sklearn.neighbors import KNeighborsClassifier
x_train = np.array([[100,100,100],[90,98,97],[90,90,100],[100,90,95],[80,90,70],[100,80,100],
                    [95,95,95],[95,97,80],[90,95,90],[95,95,90],[100,100,95]])
y_train = ['清华','北大','北邮','北大','北邮','北大','清华','北邮','北邮','北邮','清华']
x_test = np.array([[97,96,92]])
clf = KNeighborsClassifier(n_neighbors=2,weights='uniform',algorithm='auto')
clf.fit(x_train,y_train)
pred = clf.predict(x_test)
print(pred)

代码示例2 (numpy)

import numpy as np
#from sklearn.neighbors import KNeighborsClassifier
import operator
x_train = np.array([[100,100,100],[90,98,97],[90,90,100],[100,90,95],[80,90,70],[100,80,100],
                    [95,95,95],[95,97,80],[90,95,90],[95,95,90],[100,100,95]])
y_train = ['清华','北大','北邮','北大','北邮','北大','清华','北邮','北邮','北邮','清华']
x_test = np.array([[97,96,92]])
def classify0(x_test, x_train, labels, k):#对每组数据进行分类,inX为用于分类的输入向量
    dataSetSize = x_train.shape[0]
    # 计算欧氏距离
    diffMat = np.tile(x_test, (dataSetSize, 1)) - x_train
    SQdiffMat = diffMat ** 2
    distances = SQdiffMat.sum(axis=1)
    # 对索引值进行排序排序
    sorted_distances = distances.argsort()
    # 以字典形式存储数据,便于索引
    class_count = {}
    for i in range(k):
        voteLabel = labels[sorted_distances[i]]
        class_count[voteLabel] = class_count.get(voteLabel,0) + 1
        # 将classCount字典分解为元祖列表,排序k个距离值
        sortedClassCount = sorted(class_count.items(), key=operator.itemgetter(1),
                                  reverse=True)
        return sortedClassCount[0][0]  # 返回发生频率最高的元素标签
classifier = classify0(x_test,x_train,y_train,k=2)
print(classifier)

两种计算结果所得分类均为-北邮

上一篇 下一篇

猜你喜欢

热点阅读