快速搭建TensorFlow目标检测框架并训练自己的数据集

2019-03-12  本文已影响0人  MachinePlay

安装anaconda

前往anaconda清华镜像站下载最新版本
可参考我的博文anaconda简单入门

创建python3.6环境

非常不建议使用windows,因为学界、工业界tensorflow基本上都是linux环境,windows各种工具bug调试麻烦多多。笔者很早就完成了ubuntu 18.04的教程,windows又花了很多时间解决BUG
linux,macos系统使用terminal,windows用户使用cmd执行下列命令
目前tensorflow1.12版本最高支持到python3.6

conda create -n py3.6 python=3.6 #py3.6是自己为环境起的 名字,可以自己起容易记的

安装TensorFlow

-1. 进入py3.6环境

conda activate py3.6

-2. 安装TensorFlow-gpu

conda install tensorflow-gpu=1.12

这里我指定安装了最新版的(1.12)tensorflow,conda会自行在py3.6这个虚拟环境中安装cudatoolkit和cudnn等环境,所以不需要像很多教程那样自行安装cuda和cudnn。

conda activate py3.6

-2. 安装Tensorflow

conda intstall tensorflow=1.12

测试TensorFlow是否安装成功

输入

python
在>>>后输入import tensorflow as tf

如果不报错,说明安装成功

下载TensorFlow目标检测api

tensorflow附带了一些样例和示范代码,我们在示范代码的基础上做修改,训练自己的目标检测模型
首先需要电脑安装过git工具,windows用户一般不会自带,前往git官网下载安装成功后即可使用

git clone https://git.dev.tencent.com/MachinePlay/models.git

安装api

安装前可以先把源换了
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
sudo apt-get install protobuf-compiler python-pil python-lxml
 pip install jupyter,matplotlib,pillow,lxml

进入models/research/目录

linux用户可以直接输入下列命令,将protobuf编译完成

protoc object_detection/protos/*.proto --python_out=.
安装前可以先把源换了
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
pip install pillow
pip install lxml
pip install jupyter
pip install matplotlib

进入models/research/目录 ,手动编译.proto文件,共29个,一个一个输入

protoc object_detection/protos/anchor_generator.proto --python_out=.
protoc object_detection/protos/argmax_matcher.proto --python_out=.
protoc object_detection/protos/bipartite_matcher.proto --python_out=.
protoc object_detection/protos/box_coder.proto --python_out=.
protoc object_detection/protos/box_predictor.proto --python_out=.
protoc object_detection/protos/eval.proto --python_out=.
protoc object_detection/protos/faster_rcnn.proto --python_out=.
protoc object_detection/protos/faster_rcnn_box_coder.proto --python_out=.
protoc object_detection/protos/graph_rewriter.proto --python_out=.
protoc object_detection/protos/grid_anchor_generator.proto --python_out=.
protoc object_detection/protos/hyperparams.proto --python_out=.
protoc object_detection/protos/image_resizer.proto --python_out=.
protoc object_detection/protos/input_reader.proto --python_out=.
protoc object_detection/protos/keypoint_box_coder.proto --python_out=.
protoc object_detection/protos/losses.proto --python_out=.
protoc object_detection/protos/matcher.proto --python_out=.
protoc object_detection/protos/mean_stddev_box_coder.proto --python_out=.
protoc object_detection/protos/model.proto --python_out=.
protoc object_detection/protos/multiscale_anchor_generator.proto --python_out=.
protoc object_detection/protos/optimizer.proto --python_out=.
protoc object_detection/protos/pipeline.proto --python_out=.
protoc object_detection/protos/post_processing.proto --python_out=.
protoc object_detection/protos/preprocessor.proto --python_out=.
protoc object_detection/protos/region_similarity_calculator.proto --python_out=.
protoc object_detection/protos/square_box_coder.proto --python_out=.
protoc object_detection/protos/ssd.proto --python_out=.
protoc object_detection/protos/ssd_anchor_generator.proto --python_out=.
protoc object_detection/protos/string_int_label_map.proto --python_out=.
protoc object_detection/protos/train.proto --python_out=.

接下来把装好的object_detection加入系统环境变量

export PYTHONPATH=$PYTHONPATH:pwd:pwd/slim

其中'pwd'替换为当前research路径
关闭终端,重新进入环境即可

python setup.py install

进入models/research/slim文件夹
输入

python setup.py install

测试是否安装成功

进入models/research/slim文件夹,输入

python object_detection/builders/model_builder_test.py

显示OK,即安装成功


image.png

到此为止,TensorFlow就安装成功了

数据集制作

使用labelimg制作好pascal voc格式数据集
一般包含这三个文件夹,其父文件夹叫做VOC2007


image.png

请将这三个文件夹拷出,放在models\research\object_detection\voc\VOCdevkit文件夹中


image.png

数据集转换

需要把voc格式数据处理为tensorflow支持的tfrecord格式
Tensorflow对象检测API必须使用TFRecord的档案格式,我用的是2007年的数据集, 目录如下,格式转换脚本我放在了object_detection文件夹内

image.png
首先需要更改pascal_label_map.pbtxt文件,该文件样例在目录models/research/object_detection/data/pascal_label_map.pbtxt下,存储着标签信息
将标签信息更改为自己制作数据集对应的字符,不要多也不要少,如图所示,这里我要识别分类的是图片内容的含水量百分比,共有四类,0%,20%。60%,100%所以修改了对应的name,id从1开始,有多少类要全部写上,可复制一份到voc/trainfcn中
image.png

在object_detection目录下,输入如下命令制作训练集

python create_pascal-tf_record.py --data_dir=VOCdevkit路径 --year=VOC2007 --set=train --outpath=转换后数据存放路径/文件名.record

其中 create_pascal-tf_record.py脚本用来将voc格式数据集转换为tfrecord文件,供tensorflow读取,year指定其格式与2007年的voc一致,即上文图所示的结构,set=train表示制作的是训练集,outpath=后面是转换后tfrecord文件存储的位置,出现waring不要紧没关系,不报错就行
例如我的路径如下,我后面会把所有文件存放到voc/trainfcn/文件夹中(注意系统不同路径表示方法不同:斜杠和反斜杠)

python create_pascal_tf_record.py --data_dir=C:/code/project/tfrock/models/research/object_detection/voc/VOCdevkit --year=VOC2007 --set=train --output_path=voc/trainfcn/pascal_val.record

在object_detection目录下,输入如下命令制作测试集

python create_pascal-tf_record.py --data_dir=VOCdevkit路径 --year=VOC2007 --set=val --outpath=转换后数据存放路径/文件名.record

例如我的路径如下

python create_pascal_tf_record.py --data_dir=C:/code/project/tfrock/models/research/object_detection/voc/VOCdevkit --year=VOC2007 --set=val --output_path=voc/trainfcn/pascal_val.record

我一般将训练集命名为train.record,测试集命名为val.record,并且存放在以模型命名的文件夹中。方便以后使用。

选择模型开始训练

接下来可以去网上下载网络模型或者自己编写模型开始训练,我在models/research/object_detection/voc文件夹里预置了Faster-RCNN RESNET101的预训练网络模型,可供使用
可以前往MODEL ZOO下载一些非官方预训练的网络模型,或者在网络自行查找下载

修改模型配置

首先可以看到我将Faster-RCNN RESNET101放在了voc文件夹下并完成解压


image.png

内部结构如下


image.png
其中checkhpoint记录了上一次训练断点位置,.pb文件是训练完成后保存下来供调用的模型,ckpt之类是训练中途保存的断点文件。pipeline.config是该网络的配置,理论上一开始网络模型里只有一个网络配置文件,我们要从头开始训练(参数从随机开始),其他文件都是训练过程中生成的。这里我们下载了别人已经预训练的模型(已经有比较靠谱的参数),并作为初始化。
model模型的框架   meta-architecture, feature extractor…
train_config,定义 optimizer (Momentum, Adam, Adagrad…), fine-tune model
eval_config,定义valuation估值指标
train_input_config,定义作为训练数据集与标签映射路径
eval_input_config,定义作为估值数据集的路径与标签映射路径

主要修改这4部分

0.目标种类个数
num_classes: 4,改为自己的目标种类个数



例如我有四种,就改为4

1:自定义路径指定模型位置
fine_tune_checkpoint: “PATH_TO_BE_CONFIGURED/model.ckpt”
通常在进行训练时不会从头开始训练,大部份会利用别人已经训练好的参数来微调以减少训练的时间
fine_tune_checkpoint的数值为:你定义的faster_rcnn_resnet101_coco_2018_01_28位置(例如:"object_detection/voc/faster_rcnn_resnet101_coco_2018_01_28/model.ckpt")

image.png

2:指定训练数据的label和record数据文件
label文件即我们刚刚修改过的标签映射文件,pascal_label_map.pbtxt
record文件:即pascal_train.record转换成tfrecord的训练集
train_input_reader: {
tf_record_input_reader { input_path: "PATH_TO_BE_CONFIGURED/pascal_train.record" }
label_map_path: "PATH_TO_BE_CONFIGURED/pascal_label_map.pbtxt"}


image.png

3:指定测试数据的label和record数据文件
label文件即我们刚刚修改过的标签映射文件pascal_label_map.pbtxt
record文件:即pascal_val.record转换成tfrecord的训练集
eval_input_reader: {
tf_record_input_reader { input_path: "PATH_TO_BE_CONFIGURED/pascal_val.record" }
label_map_path: "PATH_TO_BE_CONFIGURED/pascal_label_map.pbtxt"
}


image.png

另外修改eval_config,即验证集图片张数,可查看数据集中val数量修改


image.png

到此为止模型配置完毕

开始训练

进入object_detection文件夹,输入

python train.py --logtostderr --pipeline_config_path=${定义的网络Config} --train_dir=${训练结果要存放的目录}

例如我的

python train.py --train_dir=voc\trainfcn\ --pipeline_config_path=voc\trainfcn\faster_rcnn_resnet101_voc07. config

开始训练,control+c可中断训练,中断后再次运行将会从最近的自动保存点继续训练,也就是如果训练了一天断电了,第二天在同一traiN_DIR训练时不会损失昨天的训练结果,除非你把train_dir内容全部删除
--logtostderr表示将log输出到stderr,我省略了会默认输出到train_dir中,方便查看


image.png

查看训练过程

打开tensorboard可查看训练结果、损失函数情况等等
进入object_detection文件夹,输入

tensorboard --logdir=voc/trainfcn# 之前存放log的地方

浏览器登录127.0.1.1:6006可打开Tensorboard查看信息如下:


image.png

你的步骤从1开始,损失会高一些。 根据你的 GPU 和你有多少训练数据,这个过程需要不同的时间。 像 1080ti 这样的东西,应该只需要一个小时左右。 如果你有很多训练数据,则可能需要更长的时间。
停止迭代次数或者条件在设置文件里,可自行指定迭代步数或loss降到一定后停止,或强行中断
默认保存最近五次自动保存的训练结果,可以看到随着训练自动保存了到达一定步数的结果。
自动保存步数可自行设置


image.png
还可以查看网络计算图、数据分布、测试结果等
image.png
image.png
image.png

模型验证和模型保存

训练完成或中断后,可使用eval.py模型检验脚本来检验训练结果
首先我们可以看到训练的日志和最终的模型(默认保存了5个不同步数时的模型)都会保存在train_dir中

image.png
这里会报错ModuleNotFoundError: No module named 'pycocotools',因为我们确实没有安装pycocotools
所以我们先安装pycocotools windows和linux安装方法不同
pip install pycocotools 
pip install git+https://github.com/philferriere/cocoapi.git#subdirectory=PythonAPI

如图所示即为安装成功

image.png
windows安装完成后仍然会报错 NameError: name 'unicode' is not defined
是因为windows下载的是基于python2的代码,其中unicode在python3中已经升级为str函数,需要修改源码
打开报错位置,我的如下图
image.png
打开该文件,修改213行和352行的unicode修改为str
image.png
image.png

然后在object_detection目录下执行eval.py 检验训练结果

python eval.py 
    --logdir=${log目录}
    --pipeline_config_path=${定义的Config} \
    --checkpoint_dir=${训练模型存放的目录} \
    --eval_dir=${测试结果要存放的目录}

windows下使用依然会出现报错,但不影响结果,原因还未查明
例如我的命令是,我将检验结果也存放在trainfcn文件夹中(这样做其实容易混淆,建议将检验结果和log放在另一个目录,另外开启Tensorboard查看)

python eval.py --logdir=voc\trainfcn\ --pipeline_config_path=voc\trainfcn\faster_rcnn_resnet101_voc07.conf ig  --checkpoint_dir=voc\trainfcn\ --eval_dir=voc\trainfcn\

tensorboard出现image选项,可以查看结果,一般会将多次的checkpoint步数结果供查看


image.png

同时命令行会给出评估结果mAP、AP等等


image.png

最后是保存模型

经过多次训练,预览了一个你觉得最好的迭代次数保存下来的模型后,可以将该训练好的模型导出为pb文件,即Tensorflow的训练好的模型文件,可拷贝至其他机器供编程使用
该脚本名为export_inference_graph.py,脚本放在了object_detection目录下
使用方法:

 python export_inference_graph.py  --pipeline_config_path=voc\trainfcn\faster_rcnn_resnet101_voc07.config
--trained_checkpoint_prefix=voc\trainfcn\model.ckpt-10324 --output_directory voc\jieguo

其中model.ckpt-10324表示使用第10324步保存的模型。我们需要根据voc/trainfcn中你想要导出的checkpoint步数更改。output表示输出目录,这里我新建了输出目录结果,导出的模型会被存到里面


可以看到,导出的模型结构和我们最早下载的模型内容基本一致其中.pb文件就是模型本身了,该网络就包含了我们训练得出的全部参数
上一篇下一篇

猜你喜欢

热点阅读