08-k-近邻算法

2019-10-01  本文已影响0人  jxvl假装
"""
k-近邻算法:如果一个样本在特征空间中的k个最相似的(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别
    最开始由Cover和Hart提出
    如何求距离:特征值差的平方的和再开方,也称欧式距离。所以相似的样本,特征之间的值应该都是相近的
    为了保证特征之间的影响一样大,应该做标准化
    api:sklearn.neighbors.KNeighborsClassifierr(n_neighbors=5,algorithm="auto")

    总结:
        k的大小:k值取太小容易受异常点影响;k值取很大,容易受k值数量(类别)的波动
        性能问题:时间复杂度高(要算每个点的距离)
        优点:
            简单,容易理解,易于实现,无需估计参数,无需训练(因为距离固定,所以计算结果是固定的)
        缺点;
            懒惰算法,对测试样本分类时的计算量大,内存开销大
            必须指定k值,k值当则分类精度不能保证
        使用场景:
            由于缺点比较大,所以实际中基本不用。可在小数据场景中使用(几k至几w)
"""
"""案例:预测入住位置"""
import pandas as pd
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import load_iris
def knncls():
    """
    k-近邻预测用户签到位置
    :return: None
    """
    #读取数据
    data = pd.read_csv("./train.csv")
    #处理数据
        #缩小数据范围
    data = data.query("x > 1.0 & x < 1.25 & y > 2.5 &  7 < 2.75")
        #处理时间的数据pd.to_datatime:把时间戳转换成日期格式
    time_value = pd.to_datetime(data["time"], unit="s")
        #把日期格式转换成字典格式,以可以获得时、分、秒等数据
    time_value = pd.DatetimeIndex(time_value)
        #构造一些特征
    data["day"] = time_value.day  #增加列:注意,数据的量应当一样
    data["hour"] = time_value.hour
    data["weekday"] = time_value.weekday
        #把时间戳删除
    data.drop(['time'], axis=1) #注意:pandas和sklearn中的列不一样,sklearn中是1表时列
    """注意:在pd中每一步操作都有返回值"""
        #把签到数量少于n个目标位置删除
    place_count = data.groupby("place_id").count()  #此时,place_id就变成了索引
    tf = place_count[place_count.row_id > 3].reset_index()  #reset_index将索引变成一列数据。索引就变成了0、1、2...
    data = data[data['place_id'].isin(tf.place_id)]
        #取出数据当中的特征值和目标值
    y = data['place_id']
    x = data.drop(['place_id'], axis=1)

    #进行数据的分割
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)
    #特征工程(标准化)
    std = StandardScaler()
    x_train = std.fit_transform(x_train)  #对测试集和训练集的特征值进行标准化
    x_test = std.fit_transform(x_test)

    #进行算法流程
    knn = KNeighborsClassifier(n_neighbors=5)
    """算法实例化时的参数称为超参数"""
    knn.fit(x_train, y_train)
    #得出预测结果
    y_predict = knn.predict(x_test)
    print("预测的目标签到位置为:", y_predict)
    #得出准确率
    print("预测的准确率:", knn.score(x_test, y_test))
    return None


if __name__ == "__main__":
    knncls()
上一篇 下一篇

猜你喜欢

热点阅读