Tensorflow SavedModel 模型的保存和加载
前言
最近参加了天池上的Apache Flink极客挑战赛——垃圾图片分类比赛,里面涉及到了Java调用tensorflow的SavedModel格式的模型进行预测,于是专门对此内容进行了调研。这里记录了SavedModel模型的优势,结构以及保存和加载的方法。
SavedModel的优势
Tensorflow训练的模型可以保存为ckpt格式,但是这种格式的模型文件在跨语言方面不是很灵活。而SaveModel与语言无关,比如可以使用python语言训练模型,然后在Java中非常方便的加载模型。
SavedModel的结构
以SavedModel格式保存模型时,tensorflow将创建一个SavedModel目录,该目录由以下子目录和文件组成:
assets/
assets.extra/
variables/
variables.data-?????-of-?????
variables.index
saved_model.pb|saved_model.pbtxt
其中,各目录和文件的说明如下:
-
assets/
是包含辅助(外部)文件(如词汇表)的子文件夹。资产被复制到SavedModel位置,并且可以在加载特定的MetaGraphDef
时读取。 -
assets.extra
是一个子文件夹,高级库和用户可以将自己的资源添加进去,这些资源将与模型共存但不由图形加载。此子文件夹不由SavedModel库管理。 -
variables/
是包含tf.train.saver
输出的子文件夹。 -
saved_model.pb
或saved_model.pbtxt
是SavedModel协议缓冲区。它将图形定义作为MetaGraphDef
协议缓冲区。
MetaGraph是一个数据流图,加上其相关的变量、assets和签名。MetaGraphDef是MetaGraph的Protocol Buffer表示。
assets/
和assets.extra
目录是可选的。
SavedModel模型的保存
这里以手写识别模型为例。
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
from tensorflow.saved_model.signature_def_utils import predict_signature_def
from tensorflow.saved_model import tag_constants
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
sess = tf.InteractiveSession()
x = tf.placeholder(tf.float32, [None, 784], name="Input") # 为输入op添加命名"Input"
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x, W) + b)
y_ = tf.placeholder(tf.float32, [None, 10])
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), 1))
tf.identity(y, name="Output") # 为输出op命名为"Output"
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
tf.global_variables_initializer().run()
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
train_step.run({x: batch_xs, y_: batch_ys})
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
print(accuracy.eval({x: mnist.test.images, y_: mnist.test.labels}))
# 将模型保存到文件
# 简单方法:
tf.saved_model.simple_save(sess,
"./model_simple",
inputs={"Input": x},
outputs={"Output": y})
# 复杂方法
builder = tf.saved_model.builder.SavedModelBuilder("./model_complex")
signature = predict_signature_def(inputs={'Input': x},
outputs={'Output': y})
builder.add_meta_graph_and_variables(sess=sess,
tags=[tag_constants.SERVING],
signature_def_map={'predict': signature})
builder.save()
代码解析:
-
x = tf.placeholder(tf.float32, [None, 784], name="Input") # 为输入op添加命名"Input"
这里是为输入op进行命名,当然也可以不命名,系统会默认给一个名称"Placeholder",当我们需要引用多个op的时候,给每个op一个命名,确实方便我们后面的使用。 -
tf.identity(y, name="Output") # 为输出op命名为"Output"
使用tf.identity
为输出tensor命名。 - 代码中给出了两种方法进行模型保存。复杂方法较简单方法的最大优势在于——可以自己定义
tag
,在签名的定义上更加灵活。
tag
的作用: 一个模型可以包含不同的MetaGraphDef,比如你想保存graph的CPU版本和GPU版本,或者你想区分训练和发布版本。这个时候tag
就可以用来区分不同的MetaGraphDef,加载的时候能够根据tag
来加载模型的不同计算图。在simple_save方法中,系统会给一个默认的tag: “serve”
,也可以用tag_constants.SERVING
这个常量。
SavedModel模型的加载
Python
import numpy as np
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
with tf.Session(graph=tf.Graph()) as sess:
tf.saved_model.loader.load(sess, ["serve"], "./model_simple")
graph = tf.get_default_graph()
input = np.expand_dims(mnist.test.images[0], 0)
x = sess.graph.get_tensor_by_name('Input:0')
y = sess.graph.get_tensor_by_name('Output:0')
batch_xs, batch_ys = mnist.test.next_batch(1)
scores = sess.run(y,
feed_dict={x: batch_xs})
print("predict: %d, actual: %d" % (np.argmax(scores, 1), np.argmax(batch_ys, 1)))
tf.saved_model.loader.load
的第二个参数是定义的tag
值,要和保存时定义保持一致;第三个参数是模型保存的路径。
Java
Java需要添加maven依赖:
<dependency>
<groupId>org.tensorflow</groupId>
<artifactId>tensorflow</artifactId>
<version>1.11.0</version>
</dependency>
<dependency>
<groupId>org.tensorflow</groupId>
<artifactId>proto</artifactId>
<version>1.11.0</version>
</dependency>
package com.garbage;
import org.tensorflow.SavedModelBundle;
import org.tensorflow.framework.ConfigProto;
import org.tensorflow.framework.MetaGraphDef;
import org.tensorflow.framework.SignatureDef;
/**
* @Author: Jeremy
* @Date: 2019/9/17 11:29
*/
public class SavedModelLoader {
public static void main(String[] args) throws Exception{
ConfigProto configProto = ConfigProto.newBuilder()
.setAllowSoftPlacement(true)
.build();
SavedModelBundle model = SavedModelBundle.loader("YOUR_MODEL_PATH")
.withConfigProto(configProto.toByteArray())
.withTags("serve")
.load();
SignatureDef modelSig = MetaGraphDef.parseFrom(model.metaGraphDef()).getSignatureDefOrThrow("serving_default");
int numInputs = modelSig.getInputsCount();
String inputTensorName = modelSig.getInputsMap().get("Input").getName();
String outputTensorName = modelSig.getOutputsMap().get("Output").getName();
System.out.println(String.format("numInputs: %d, inputTensorName: %s, outputTensor: %s", numInputs, inputTensorName, outputTensorName));
}
}
输出:
numInputs: 1, inputTensorName: Input_9:0, outputTensor: Softmax_10:0
使用Java预测的部分不是本文的重点,以后有机会再写。
总结
本篇博文总结了Tensorflow SaveModel模型,介绍了SaveModel模型的优势,目录结构,使用python进行模型保存,使用python和java加载模型。