机器学习与数据挖掘

Mac下使用TensorFlow实现物体检测

2017-07-03  本文已影响832人  倔犟的贝壳

参考链接:github.com/tensorflow/models/tree/master/object_detection

 准备:已安装tensorFlow,HomeBrew,pip,tensorflow下的models。

models链接:github.com/tensorflow/models

首先进入激活虚拟机:

source python2.7/bin/activate

我是使用的虚拟机安装的,所以实际我运行的是linux的环境。首先我需要安装wget,用于获取网络东西。

brew install wget

步骤1:安装Libraries和依赖

pip install pillow

pip install lxml

 pip install jupyter

pip install matplotlib

如果发现安装完jupyter之后,jupyter命令还是找不到,则执行

export PATH="$HOME/Library/Python/2.7/bin:$PATH"

步骤2:Protobuf Compilation & Add Libraries to PYTHONPATH

因为detection api使用的是Protobuf(谷歌的)来配置模型和参数,所以在每次重新打开终端运行前,都需要重新执行以下命令,编译protobuf库。

#From tensorflow/models/

protoc object_detection/protos/*.proto --python_out=.

protoc 命令可能找不到,需要安装.我是下载了protobuf的源码,然后编译安装的。

#From tensorflow/models/

export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim

步骤3:测试安装

python object_detection/builders/model_builder_test.py

步骤4:准备数据


训练要用到的数据为TF Record格式的数据,所以我们需要将jpg图片数据转换成TFRecord数据。首先,我们从网上下载标记好的图片数据。下载地址为:www.robots.ox.ac.uk/~vgg/data/pets/

执行如下命令,在tensorflow/models/object_detection下

然后解压数据:

tar -xvf annotations.tar.gz

tar -xvf images.tar.gz

会发现,image下全是标记好的图片(jpeg,jpg)。调用脚本,将图片数据转换成TFRecord数据。

python create_pet_tf_record.py --data_dir=`pwd`--output_dir=`pwd`

执行完成后,将会在该目录下生产pet_train.record 和pet_val.record两个文件

这两个文件就是image转换成record格式之后的数据,也是训练要求的数据格式。

训练还需要一个标签文件,用于标记某个标记代表某种东西(这里是宠物),而这个标签文件已存在于object_detection/data目录下:

我们这里下的是pet的数据,所以我们要使用的就是pet_label_map.pbtxt

步骤5:配置通道

在object_detection/samples下有各种模型的通道配置,拷贝一种出来。我拷贝了ssd_inception_v2_pets.config放在object_detection/models新建的model下。然后我把生成的两个配置文件放到了object_detection/data下

目录结构参考如下:

建议目录结构参考

配置所需要更改的是如下3部分:

配置之后为:

这里是设置检查点,我这里未设置检查点,所以from_detection_checkpoint 设置为false。如果需要设置检查点,则from_detection_checkpoint设置为true,fine_tune_checkpoint需要设置检查点的路径。checkpoint可以减少训练时间,它是别人训练出来的。这个可以从网上下载。

检查点的下载地址为:github.com/tensorflow/models/blob/master/object_detection/g3doc/detection_model_zoo.md

注意这里下载的模型数据要和你使用的config文件是要对应的,比如我的config文件为ssd_inception_v2_pets.config,那我这里应该要下载的检查点数据就是第2个 input_path 设置我们之前准备的train record数据的路径,label_map_path为标签路径 input_path 设置我们之前准备的eval record数据的路径,label_map_path为标签路径

步骤5:训练

数据都准备好了,就可以开始训练了。在object_detection的目录下有个train.py的训练脚本。

调用该脚本,开始训练。

python object_detection/train.py \

--logtostderr \

--pipeline_config_path=object_detection/models/model/ssd_inception_v2_pets.config \

--train_dir=object_detection/models/model/train  

--pipeline_config_path 指定训练通道路径,--train_dir 指定训练的结果输出路径

然后等待,开始的损失很高,会逐渐降低。loss值越低,表示模型准确率越高。

步骤5:评估

再开一个终端,对产生的model进行评估。执行如下脚本命令

python object_detection/eval.py \

--logtostderr \

--pipeline_config_path=object_detection/models/model/ssd_inception_v2_pets.config \

--checkpoint_dir=object_detection/models/model/train \

--eval_dir=object_detection/models/model/eval

再在另一个终端输入命令:tensorboard --logdir=object_detection/models/model,即可得到一个链接地址,在浏览器中输入即可图形式的查看。logdir指向带有train和eva的目录地址。

在SCALARS那栏下面可以查看各种线性图:

在Images那栏可以看到对模型的评估:

PS:训练的时间有点长,可能需要花费几天时间,当loss降到10左右时,在tensorflow上看到的images 是没标记的了,而且此时loss下降很。所以你会怀疑你训练的模型是不是错了,其实是没错的,当它继续往下走的,它就慢慢地正常标记了。建议开始使用checkpoint,时间会快很多。

上一篇下一篇

猜你喜欢

热点阅读