tensorflow如何解决越运行越慢的问题

2018-04-20  本文已影响1704人  QYiZHong

这几天写tensorflow的时候发现随着迭代的次数越来越多,tensorflow跑的速度越来越慢。查找才发现是tensorflow不断的给之前的图里加节点,导致占用的内存越来越大,然后我尝试了网上的各种方法,终于发现了一个靠谱的方法,先放上代码

tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:
    x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")
    y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")

    # 第一层
    layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)
    # 第二层
    layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)
    # 输出层
    weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))
    bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))
    finish_output = tf.matmul(layer_2, weight) + bia
    tf.add_to_collection("out", finish_output)

    loss = tf.reduce_mean(tf.square(y_output - finish_output))
    opt = tf.train.AdamOptimizer(0.01)
    train_opt = opt.minimize(loss)
    tf.add_to_collection("train_opt", train_opt)
    saver = tf.train.Saver()
    with tf.Session(graph=g) as sess:
        init = tf.global_variables_initializer()
        sess.run(init)

        for i in range(len(x_data_array)):
            # 使用数据训练
            if i > 60:
                break
            p = x_data_array[i]
            p = np.array(p)
            p = p.reshape([1, 36])
            sess.run(train_opt, feed_dict={
                x_data: p, y_output: y_data
            })
        saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")

可以看出来我这段代码是加载了保存过的模型

其中

tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:

这个起到了关键作用,每次再训练的时候重置一下图,用新的图训练。这里踩了一个坑,我以为用了新图可以直接使用

tf.train.import_meta_graph()

然后通过变量名导入再跑就行了,然后我怎么用调都没法解决,最后我直接再定义一遍需要用的变量和操作然后就可以跑起来了

因为我在我的项目中还需要时刻通过这个模型来预测,然后发现报错了,尝试了许久,我就在我生成模型的那部分代码也改成类似的

tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:
    x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")
    y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")

    # 第一层
    layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)
    # 第二层
    layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)
    # 输出层
    weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))
    bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))
    finish_output = tf.matmul(layer_2, weight) + bia
    tf.add_to_collection("out", finish_output)

    loss = tf.reduce_mean(tf.square(y_output - finish_output))
    opt = tf.train.AdamOptimizer(0.01)
    train_opt = opt.minimize(loss)
    tf.add_to_collection("train_opt", train_opt)

    saver = tf.train.Saver()

    with tf.Session() as sess:
        init = tf.global_variables_initializer()
        sess.run(init)
        sess.run(train_opt, feed_dict={
            x_data: init_random_list(), y_output: np.random.randint(0, 1000)
        })
        saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")

可以看出来这是第一次生成模型的代码,我第一次就直接用了

tf.reset_default_graph()
graph = tf.Graph()

然后我在使用模型做预测的过程中就不会报错了

欢迎来我的博客 Qi的博客

上一篇下一篇

猜你喜欢

热点阅读