TensorFlow --Graph 和 Sessions

2019-03-03  本文已影响0人  MunCN

博客搬家至 Mun: https://kiddie92.github.io

简书同步更新

深度学习框架有很多,Google的TensorFlow市场占有率居高不下,本文的小目标是说清楚tensorflow的“图(Graph)”“会话(Session)”机制及其优缺点,最后以一个回归问题为例实践一下。文中顺便回答一下动态图(Dynamic computation graphs)静态图(Static computational graphs)框架的区别。

背景介绍

深度学习是目前人工智能领域备受推崇的算法种类,其在计算机视觉(Computer vision)、自然语言处理(NLP)领域有比较广泛的应用,这里先挖个坑,下一篇将谈谈我对深度学习算法的理解。

目前开源市场的深度学习框架有很多,如tensorflowpytorchmxnet等,而tensorflow的市场占有率相对较高,那么为什么会有如此多的深度学习框架,tensorflow又有什么异于常人的地方呢?为了回答这个问题,本文首先尝试说明一下tensorflow的Graph+Session机制。

市面上的各种深度学习框架:

DL-framework.png

计算图(Graph)

简单来说,计算图是由tensor和opration组成的一张工程图纸。先上图(从图中来看,这是一个分类问题...),文末还附了一张PyTorch的动态图,有兴趣可以对比一下。

tensors_flowing.gif

张量(Tensor)

先把力学里面的张量忘掉,这里的张量概念包括标量、矢量和线性算子,或者简单理解成高维矩阵。输入的数据、参数大多是高维矩阵,统一被称为tensor,此外,tensor之间经过各种计算得到的结果依然是一个张量。

算子(Operation)

Tensor之间的各种运算统称为operation,如加减乘除、开根号等。tensor进入operation进行各种计算,输出结果到下一个operation继续计算,像是tensor在流动,TensorFlow由此得名。

会话 (Session)

tf.graph定义好后,打开一个tf.session执行Graph,简单来说,会话是指机器根据工程图纸打开计算资源进行施工。Session提供了Operation执行和Tensor求值的环境,此外其还拥有物理资源(GPUs和网络连接)。当我们不再需要该session的时候,需要调用sess.close()关闭会话,将这些资源释放。

# Create a default in-process session.
with tf.Session() as sess:
  # ...

# Create a remote session.
with tf.Session("grpc://example.org:2222"):
  # ...

数据流 (Dataflow)

Dataflow是一个常见的并行计算编程模型。在一个dataflow图中(如上gif图所示),节点表示计算单元,边界则表示计算单元对数据的生产和消费。dataflow模式有几个比较大的优势:

实践 -- 回归问题

问题描述

  1. 构造一个函数/映射,y_{data} = f(x_{data}),其中 x_{data}是一个随机输入的2\times100矩阵,y_{data}是一个1\times100矩阵,由一个参数矩阵W=\begin{bmatrix} 0.1 & 0.2 \end{bmatrix}x_{data}点乘后加上一个常数b=0.3构造出来。
# 使用Numpy生成假数据(phony data),总共100个点.
x_data = np.float32(np.random.rand(2, 100))      # 随机输入
print(x_data)
y_data = np.dot([0.100, 0.200], x_data) + 0.300  #输出的y为[[]]的list
print(y_data)
  1. 使用x_{data}y_{data}数据来反演/学习出参数矩阵W和常量参数b,该问题等价于由100个方程求解三个参数问题,显然是一个超定问题,求解过程就是一个优化过程。
    \begin{pmatrix} W_1X_{1,1} + W_2X_{2,1} +b = y_1 \\ W_1X_{1,2} + W_2X_{2,2} +b = y_2 \\ ... \\ W_1X_{1,100} + W_2X_{2,100} +b =y_{100} \\ \end{pmatrix}

  2. 假设我们已经知道这个函数式了:Wx+b=y,仅仅不知道给定的参数Wb是什么,根据函数式,可以使用初始化参数来构造y,并计算yy_{data}之间的“距离”,并使用梯度下降的方式找到一个最优参数组使距离尽量减少。见代码部分10-13行。

注意

  1. 现实世界中往往是不知道两个随机变量之间的确切关系的
  2. 这里"距离"是指向量之间的空间距离,常用的距离有欧几里得距离(2-范数)曼哈顿距离(1-范数)等。本例中使用2-范数作为距离,也即最小方差/最小二乘/Least Square方法。

运行环境

由于tensorflow和cuda版本(9.0.176)兼容问题,选择安装V1.12.0GPU版本,本机tensorflow环境:

[conan@localhost ~]$ conda list | grep tensor
tensorboard               1.12.0                    <pip>
tensorflow-gpu            1.12.0                    <pip>
tensorflow-tensorboard    0.4.0                     <pip>

代码部分

这里使用一个简单的平面拟合问题来实践一下,完整代码请看这里

# 构造一个线性模型
# 实际问题中如果没有确切的物理关系,很难知道是否是线性模型, 也很难知道解在哪个范围

b = tf.Variable(tf.zeros([1]))
W = tf.Variable(tf.random_uniform([1, 2], -1.0, 1.0))
y = tf.matmul(W, x_data) + b   # y is synthetic data

# 下面开始构建Graph
# 最小化方差(Least Square) 定义目标函数/损失函数/misfit function
loss = tf.reduce_mean(tf.square(y - y_data))
# 优化器就使用最原始的梯度下降方法,参数为learning rate/步长
optimizer = tf.train.GradientDescentOptimizer(0.2)   
train = optimizer.minimize(loss)

# 初始化变量
init = tf.initialize_all_variables()
# 启动会话
sess = tf.Session()
sess.run(init)

# 拟合平面/反演参数/回归分析
for step in range(0, 51):
    sess.run(train)   # 参数train就是前面定义的dataflow graph
    if step % 10 == 0:
        print(step, sess.run(W), sess.run(b))
W = sess.run(W)
b = sess.run(b)
sess.close()  
# 最终反演出来的方程
y_pred = np.dot(W, x_data) + b
print('----------------')
print(y_pred[0])
# 得到最佳拟合结果 W: [[0.100 0.200]]\, b: [0.300]
Comparation.jpg

静态图和动态图

回到最开始的问题,TensorFlow异于常人的地方:其实就是“静态图”框架。引用“hackernoon”上看到的一句话:

TensorFlow is a “Define-and-Run” framework where one would define conditions and iterations in the graph structure whereas in comparison Chainer, DyNet, PyTorch are all “Define-by-Run” frameworks.

动态计算图框架使用起来就像做工程时一边设计一边施工,TensorFlow使用起来就没有“动态图”框架那样灵活、直接,容易调试,而这也是其入门门槛高的一个原因。但是,“静态图”的优点也是明显的--计算会更加高效,因为所有的步骤都定义好了再进行计算使计算机资源的调配更加合理、高效。所以说,“动态图”和“静态图”是优势互补的。

TensorFlow 2.0 推出了Eager Execution,开始支持“动态图”了

dynamic_graph_pytorch.gif

Reference

  1. Graphs and Sessions
  2. How is PyTorch different from Tensorflow?
上一篇 下一篇

猜你喜欢

热点阅读