我爱编程

关于深度学习框架Hamaa与Python API文档生成工具So

2016-11-28  本文已影响507人  monitor1379

前言

最近没怎么更新博客,是因为最近三个月我主要花时间在造一个轮子:深度学习库 Hamaa。

关于Hamaa的诞生

Hamaa源自于我当初的一个小想法。
当时我学习Deep Learning已有两个月,看了很多论文、教程与博客,
于是尝试着去阅读Keras的源代码来学习别人是怎么实现的,尤其是back propagation这一块。
但是Keras的backend使用的是Theano/TensorFlow,
这两个深度学习库都是“符号主义”派,这意味着神经网络的求导是自动的(autograd)。

所以最后还是决定硬啃论文和数学公式来重现,写着写着发现代码越来越多,添加一个网络层动辄就要修改数十行代码。突然某一天想到,为什么不学习Keras的API设计呢?于是在不断的重构中逐渐实现了模块化,也就有了现在的Hamaa。

Hamaa吸收了许多开源深度学习库的设计理念,比如Keras的API,Caffe的Blob/Layer/Net/Solver架构,TensorFlow/Theano的Operator求导机制(Hamaa中为手动实现Operator的forward/backward以实现自动求导)等等。

而我很高兴地说,在实现Hamaa的过程中,我深入了解与学习到了以下几点:

  1. 彻底弄懂了神经网络中全连接层、激活层、卷积层、池化层的backpropagation过程及其向量化(vectorization)实现。
  2. 了解到了softmax输出层为什么通常配合cross entropy损失函数以及negative log likelihood优化方法一起使用。

鉴于我水平有限,在某些实现上难免会出现不足或错误之处。如果有读者发现了,十分欢迎在GitHub上提出issues或者发邮件到作者邮箱:yy4f5da2(at)hotmail.com。

后记

后续会写一些我在造轮子过程中的收获和踩过的一些坑。关于神经网络以及其BP过程网上有很多资料与教程,就不重复了。尽量会介绍更多关于神经网络框架的设计、卷积神经网络中卷积层与池化层的前向计算与后向传播过程公式推导等等。

另外,Hamaa其实已经完成了有一个月了,之所以拖了那么久才介绍是因为:

综上,纠结了3天之后,决定自己再造一个轮子:Python API文档自动生成工具——Sophon库就此诞生。更多关于Sophon的信息可以看:

上一篇 下一篇

猜你喜欢

热点阅读