欢迎来到开学后的第四周,我们的进度如下

2018-03-16  本文已影响0人  起而醒而行

1.初来乍到

实现第一个神经网络程序很有必要,试试实现神经网络领域的Hello World程序,也就是MNIST手写识别

实现这里的代码 http://blog.csdn.net/wspba/article/details/54097760

如果代码的原理有不懂的地方,可以看

http://www.tensorfly.cn/tfdoc/tutorials/mnist_beginners.html


我迭代了900次的结果,百分之92的识别率,还不错吧?

0 0.9028

100 0.9127

200 0.9151

300 0.9153

400 0.9048

500 0.9146

600 0.9142

700 0.8976

800 0.9174

900 0.919


我相信总有一些地方你理解不透,比如某些函数的功能和参数。我帮你挑了两个。

tf.argmax函数详解

http://blog.csdn.net/qq575379110/article/details/705380514

tf.reduce_mean函数

http://blog.csdn.net/qq_32166627/article/details/52734387

请务必掌握MNIST的这段代码,尤其是搭建整个神经网络需要几步,或者说几个模块。同时,最好了解简单的tensorflow运行原理,比如tf.Session()函数是如何运作的。

代码语法不懂?

如果看不懂代码的语法请不要略过,首先看简单的文档,大体了解基本语法

https://www.jianshu.com/p/2eac65211314

http://blog.csdn.net/jingyi130705008/article/details/78813916

然后,我给你找了本字典。遇到不会的函数,在网页里查询关键字;哪里不会查哪里,这样我就不用担心你的学习啦。

https://www.w3cschool.cn/tensorflow_python/tensorflow_python-hckq2htb.html

2.小试牛刀

我们的论文中说到“我们提出了一种基于栈式自动编码器的新DNN体系结构,用于减少特征空间维度,并提供了一个前向分类器,用于使用arg max函数进行多标签分类。”核心算法是Stacked AutoEncoder 也就是栈式自动编码器。

首先要学习自编码器AutoEncoder,这是SAE的基础。

http://blog.csdn.net/marsjhao/article/details/68950697

3.下周一见

栈式自动编码器不简单,代码量大。首先,SAE神经网络的层数很多。其次,结构复杂,栈式自动编码器就是编码自动编码器的自动编码器,所以对神经网络的结构需要有清晰的理解。

我们一步步来吧,代码先不着急实现。通过这篇文章了解具体的原理,在深入理解的基础上,我们会继续实现代码。

http://www.cnblogs.com/yymn/articles/4971020.html


最后,我把咱们的论文翻译出了中文版。由于我好奇你是什么时候看完了这篇文章,所以请在看到这行字的时候私聊我,届时我会把中文版的论文发到群里。

上一篇 下一篇

猜你喜欢

热点阅读