tensorflow如何解决越运行越慢的问题
2018-04-20 本文已影响1704人
QYiZHong
这几天写tensorflow的时候发现随着迭代的次数越来越多,tensorflow跑的速度越来越慢。查找才发现是tensorflow不断的给之前的图里加节点,导致占用的内存越来越大,然后我尝试了网上的各种方法,终于发现了一个靠谱的方法,先放上代码
tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:
x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")
y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")
# 第一层
layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)
# 第二层
layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)
# 输出层
weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))
bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))
finish_output = tf.matmul(layer_2, weight) + bia
tf.add_to_collection("out", finish_output)
loss = tf.reduce_mean(tf.square(y_output - finish_output))
opt = tf.train.AdamOptimizer(0.01)
train_opt = opt.minimize(loss)
tf.add_to_collection("train_opt", train_opt)
saver = tf.train.Saver()
with tf.Session(graph=g) as sess:
init = tf.global_variables_initializer()
sess.run(init)
for i in range(len(x_data_array)):
# 使用数据训练
if i > 60:
break
p = x_data_array[i]
p = np.array(p)
p = p.reshape([1, 36])
sess.run(train_opt, feed_dict={
x_data: p, y_output: y_data
})
saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")
可以看出来我这段代码是加载了保存过的模型
其中
tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:
这个起到了关键作用,每次再训练的时候重置一下图,用新的图训练。这里踩了一个坑,我以为用了新图可以直接使用
tf.train.import_meta_graph()
然后通过变量名导入再跑就行了,然后我怎么用调都没法解决,最后我直接再定义一遍需要用的变量和操作然后就可以跑起来了
因为我在我的项目中还需要时刻通过这个模型来预测,然后发现报错了,尝试了许久,我就在我生成模型的那部分代码也改成类似的
tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:
x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")
y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")
# 第一层
layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)
# 第二层
layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)
# 输出层
weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))
bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))
finish_output = tf.matmul(layer_2, weight) + bia
tf.add_to_collection("out", finish_output)
loss = tf.reduce_mean(tf.square(y_output - finish_output))
opt = tf.train.AdamOptimizer(0.01)
train_opt = opt.minimize(loss)
tf.add_to_collection("train_opt", train_opt)
saver = tf.train.Saver()
with tf.Session() as sess:
init = tf.global_variables_initializer()
sess.run(init)
sess.run(train_opt, feed_dict={
x_data: init_random_list(), y_output: np.random.randint(0, 1000)
})
saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")
可以看出来这是第一次生成模型的代码,我第一次就直接用了
tf.reset_default_graph()
graph = tf.Graph()
然后我在使用模型做预测的过程中就不会报错了
欢迎来我的博客 Qi的博客