圣经故事架构nginx

人工智能00009 深度学习与图像识别书评09 图像分类识别预备

2023-09-21  本文已影响0人  水晓朴

KNN算法将会比较测试图片与训练集中每一张图片,然后将它认为最相似的那个训练集图片的标签赋给这张测试图片。

那么,具体应该如何比较这两张图片呢?在本例中,比较图片就是比较28×28的像素块。最简单的方法就是逐个像素进行比较,最后将差异值全部加起来。

使用L1距离来进行比较。逐个像素求差值,然后将所有差值加起来得到一个数值。如果两张图片一模一样,那么L1距离为0,但是如果两张图片差别很大,那么,L1的值将会非常大。

3.验证KNN在MNIST上的效果 在实现算法之后,

我们需要验证MNIST数据集在KNN算法下的分类准确度,在“if__name__=='__main__'”下添加如下代码(不要忘记缩进):

X_train = train_loader.dataset.train_data.numpy() #需要转为numpy矩阵

X_train = X_train.reshape(X_train.shape[0],28*28)#需要reshape之后才能放入knn分类器

y_train = train_loader.dataset.train_labels.numpy()

X_test = test_loader.dataset.test_data[:1000].numpy()

X_test = X_test.reshape(X_test.shape[0],28*28)

y_test = test_loader.dataset.test_labels[:1000].numpy()

num_test = y_test.shape[0]

y_test_pred = kNN_classify(5, 'M', X_train, y_train, X_test)

num_correct = np.sum(y_test_pred == y_test)

accuracy = float(num_correct) / num_test

print('Got %d / %d correct => accuracy: %f' % (num_correct, num_test, accuracy))  

最后,我们运行代码,由运行结果可以看到准确率只有 Got 368/1000 correct=>accuracy:0.368000!这说明1000张图片中只有大约37张图片预测类别的结果是准确的。

先别气馁,我们之前不是刚说过可以使用数据预处理的技术吗?下面我们试一下如果在进行数据加载的时候尝试使用归一化,那么分类准确度是否会提高呢?

我们稍微修改下代码,主要是在将X_train和X_test放入KNN分类器之前先调用centralized,进行归一化处理,示例代码如下:

X_train = train_loader.dataset.train_data.numpy()

mean_image = getXmean(X_train)

X_train = centralized(X_train,mean_image)

y_train = train_loader.dataset.train_labels.numpy()

X_test = test_loader.dataset.test_data[:1000].numpy()

X_test = centralized(X_test,mean_image)

y_test = test_loader.dataset.test

_labels[:1000].numpy()

num_test = y_test.shape[0]

y_test_pred = kNN_classify(5, 'M', X_train, y_train, X_test)

num_correct = np.sum(y_test_pred == y_test)

accuracy = float(num_correct) / num_test

print('Got %d / %d correct => accuracy: %f' % (num_correct, num_test, accuracy))

下面再来看下输出结果的准确率:Got 951/1000 correct=>accuracy:0.951000, 95%算是不错的结果。

现在我们来看一看归一化后的图像是什么样子的,

代码如下:  import matplotlib.pyplot as plt

mean_image = getXmean(X_train)

cdata = centralized(test_loader.dataset.test_data.numpy(),mean_image)

cdata = cdata.reshape(cdata.shape[0],28,28)

plt.imshow(cdata[0],cmap=plt.cm.binary)

plt.show()

print(test_loader.dataset.test_labels[0]) #输出的label为7

 4.KNN代码整合

现在,我们再来回顾下KNN的算法实现,对于KNN算法来说,之前的实现代码虽然可用,但并不是按照面向对象的思路来编写的,在本例中,我们将之前的代码做一下改进。

代码的实现思路是:我  

们可以创建一个fit方法来存储所有的图片以及与它们对应的标签。

伪代码如下:  def fit(self,X_train,y_train):

   return model  再创建一个predict方法,以预测输入图片最有可能匹配的标签:

def predict(self,k, dis, X_test):

#其中,k的选择范围为1~20,dis代表选择的是欧拉还是曼哈顿公式,X_test表示训练数据,函数返回的是预测的类别 return test_labels  下面我们来完善下KNN算法的封装(基于面向对象的思想来实现)。

我们将这个类命名为Knn(注意:这个类名的n是小写的)。

第一步,完善fit方法,fit方法主要是通过训练数据集来训练模型,在Knn类中,我们的实现思路是将训练集的数据与其对应的标签存储于内存中。

代码如下:  def fit(self,X_train,y_train): #我 们统一下命名规范,X_train代表的是训练数据集,而y_train代表的是对应训练集数据的标签

   self.Xtr = X_train

   self.ytr = y_train  

第二步,完善predict方法,predict方法可用于预测测试集的标签。具体的实现代码与之前的代码类似,只不过输入的参数只有k(代表的是k的选值),dis代表使用的是欧拉公式还是曼哈顿公式,X_test代表的是测试数据集; predict方法返回的是预测的标签集合。

代码如下(只包含了欧氏距离的实现):  def predict(self,k, dis, X_test):

   assert dis == 'E' or dis == 'M', 'dis must E or M'

   num_test = X_test.shape[0]  #测试样本的数量

   labellist = []

   #使用欧拉公式作为距离度量

   if (dis == 'E'):

       for i in range(num_test):

           distances = np.sqrt(np.sum(((self.Xtr - np.tile(X_test[i], (self.Xtr.shape[0], 1))) ** 2), axis=1))

           nearest_k = np.argsort(distances)

           topK = nearest_k[:k]

           classCount = {}

           for i in topK:

               classCount[self.ytr[i]] = classCount.get(self.ytr[i], 0) + 1

           sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)

           labellist.append(sortedClassCount[0][0])

       return np.array(labellist)  

最后,我们引入from ml.knn.demo.KnnClassify import Knn,使用MNIST数据集查看效果。

上一篇 下一篇

猜你喜欢

热点阅读