机器学习与人工智能机器学习与数据挖掘

卷积神经网络(CNN)实现人脸识别系统

2017-08-01  本文已影响286人  Hebborn_hb
通往成功的梯子!
前几天随便逛博客的时候无意看到一篇关于人脸识别的文章,觉得好玩,于是乎就自己利用之前学过的卷积神经网络CNN基础和自己爱好的Python语言尝试自己弄一个。经查很多资料后,发现图像处理需要运用到部分Opencv的知识,所以就先补了下Opencv的知识。最后终于弄出一个简单又好玩的基于PC端的人脸识别系统。GitHub代码

先来看看效果:


人丑还是不露脸啦!!

运行环境

基础思想

  1. 利用PC摄像机实时的对画面上的人脸进行识别,将人脸框出并贴上标签。标签即为数据目录名称,若识别不出则显示“Stranger”。
  2. 画面的脸部图片将被opencv截取并灰度化后传给训练好的卷积神经网络(CNN)来处理识别,当识别出的概率大于75%时,则标为“认识”的标签名(name),否则为“Stranger”。
  3. 数据集的制作将采取普通的照片,然后通过Opencv监测出脸部部分并灰度化,再将脸部图设置为128*128size,最后保存到相应目录下。因为开始没有足够的个人脸部照片,最后利用Opencv在PC上定时拍照截图保存来收集数据。

系统使用描述

一、制作数据集(我的是保存在datasets目录)

  1. 数据集格式:datasets目录下包含若干个子目录,每一个目录表示一个识别目标(人脸),有几个子目录即为需要识别几个人,子目录下存放的是灰色的128*128大小的同一个人的脸部图片,目录结构如下:


    每个子目录代表不同的人脸图片数据
  2. 使用pick_face.py将照片截取脸部并将图片灰度化和转为128*128大小的图片

     readPicSaveFace(sourcePath,objectPath,*suffix): 
     #sourcePath表示彩色图片的文件夹路径,如:r"images/hb"
     #objectPath表示目标文件夹的路径,如:r"datasets/hb"
     #suffix表示图片类型列表,如:['.jpg','.PNG','.png']
    

&:如图片收集不够,可以使用take_photo.py来使用摄像头拍照或者在一个视频中截图,图片将保存在自己选择的目录下

  1. read_img.py下的readAllImg(path,*suffix):

     #path表示读取该路径下的所有图片文件
     #suffix表示图片类型列表,如:['.jpg','.PNG','.png']
     函数返回的是:1.图片列表(resultArray),2.图片名称列表(img_name_list)
    
  2. read_data.py下的read_file(path):

     #path表示读取该路径下的所有子目录,path目录结构与数据集结构一致
     #函数目的是读取数据集文件夹下所有的训练图片,并获取其标签,以及图片的标签数目(有几个不同的脸部图)
     函数返回的是:1.所有训练图片列表(img_list),
                 2.图片对应的标签列表(label_list),
                 3.标签种类数‘不同脸部数目’(dir_counter)
    
  3. Dataset.py是将read_file(path)读取到的图片分为X_train,X_test,Y_train,Y_test 标准的训练数据集合测试数据集并将此封装成类,模型训练时,只需实例化一个dataset对象,即表示一个数据集。

  4. read_data.py下的read_name_list(path):

     #读取path目录(datasets)下的标签名称,可理解为人的名字。
    

二、训练数据集(train_model)

三、测试识别

  1. 运行test_model.py测试训练的模型

     #运行test_onePicture(path)来测试一张图片
     #运行test_onBatch(path)来测试一个目录下的全部图片
    

    测试过程是输入一张彩色的普通照片,函数会自动提取出图片中的“脸部部分”来交给模型来识别。

  2. 运行read_camera.py可视化实时识别人脸

     运行后电脑会开启一个相机窗口并实时框出当前模型课识别的人脸和显示标签名字。
    

最后附上整个项目目录结构图:

项目目录结构

总结

  1. 过拟合的现象。训练的epoch太高,模型测试反而准确率不高,说明模型出现了过拟合的问题。因此训练的数据样本需要足够多, 增加样本类别和样本数,需要花费很多精力和时间;也可以调整模型,在神经网络每一层的输入数据进行Batch Normalization(数据归一化),有利于数据的高效性,防止神经元的激励函数钝化实效 ,但是在样本数量比较小的时候同样不是很显著。
  2. 自己在对数据集制作的操作中摸索了很久,查了很多资料,对Python的文件操作os模块有了进一步的了解,以及对Opencv图像处理有初步的理解和运用。

欢迎爱好深度学习和大数据的朋友们加我微信,相互分享一些技术干货和学习心得,共同进步。


快扫我!!!
上一篇 下一篇

猜你喜欢

热点阅读