全连接层

2018-01-08  本文已影响0人  skullfang

前言

就是把前面实现的BP神经网络封装成层

代码

# -*- coding: utf-8 -*-
# @Time    : 2017/12/3 下午2:17
# @Author  : SkullFang
# @Email   : yzhang.private@gmail.com
# @File    : FullConnent.py
# @Software: PyCharm

import numpy as np
import theano
import theano.tensor as T
from theano.tensor import shared_randomstreams
from theano.tensor.nnet import sigmoid
from theano.tensor.signal.pool import pool_2d
from theano.tensor.nnet import conv
from theano.tensor.nnet import softmax
from SoftmaxLayer import  SoftmaxLayer
"""
theano可以把代码塞到GPU上使用
theano.tensor 有很多数学计算
shared_randomstreams用于取随即值
sigmoid激励函数
"""
GPU=False
if GPU:
    print "Trying to run under a GPU"

    try:
        theano.config.device='gpu'
    except:
        pass
    theano.config.floatX='float32'
else:
    print "Running with a Cpu"

class FullyConnectedLayer(object):
    def __init__(self, n_in, n_out, activation_fn=sigmoid, p_dropout=0.0):
        """
        这是一个构造函数。
        :param n_in: 输入多少个神经元
        :param n_out: 输出的多少个神经元
        :param activation_fn: 激励函数
        :param p_dropout: 抛弃多少个神经元是个百分比
        """
        # 前一层神经元个数
        self.n_in = n_in
        # 后一层神经元个数
        self.n_out = n_out
        # 激励函数
        self.activation_fn = activation_fn
        # dropout
        self.p_dropout = p_dropout

        #theano.shared可以创建类似共有性变量放在GPU上进行运算,borrow是说内存是否共用,在大对象的时候最好设置的是True
        #np.asarray()可以吧数组形式的,列表啊,元祖啊,字典啊变成一个矩阵
        #size是w是啥样 输入有多少个神经元自然w就有多少行。输出有多少个神经元w就有多少列。
        self.w = theano.shared(
            np.asarray(
                np.random.normal(
                    loc=0.0, scale=np.sqrt(1.0 / n_out), size=(n_in, n_out)),
                dtype=theano.config.floatX),
            name='w', borrow=True)

        #初始化b 跟初始化w差不多的。但是b的size可只有输出层那么多。很容易理解。w的一列就是输入层所有的神经元的w。
        # 然后* x +b 这里的b应该就是一个实数。有多少个实数呢?要看w有多少列了。所以只需要知道输出层的神经元个数。
        self.b = theano.shared(
            np.asarray(np.random.normal(loc=0.0, scale=1.0, size=(n_out,)),
                       dtype=theano.config.floatX),
            name='b', borrow=True)

        self.params = [self.w, self.b]



    def set_inpt(self,inpt,inpt_dropout,mini_batch_size):
        """
        全链接的输入设置
        :param inpt: 前一层的出
        :param inpt_droput: 前一层dropout之后的输出
        :param mini_batch_size:
        :return:
        """
        # reshape输入
        self.inpt = inpt.reshape((mini_batch_size, self.n_in))
        # 输出
        self.output = self.activation_fn(
            (1 - self.p_dropout) * T.dot(self.inpt, self.w) + self.b)
        # 取最大值
        self.y_out = T.argmax(self.output, axis=1)
        # dropout输入dropout
        self.inpt_dropout = dropout_layer(
            inpt_dropout.reshape((mini_batch_size, self.n_in)), self.p_dropout)
        # dropout输出
        self.output_dropout = self.activation_fn(
            T.dot(self.inpt_dropout, self.w) + self.b)

    def accuracy(self,y):
        return T.mean(T.eq(y,self.y_out))


def ReLU(z): return T.maximum(0.0, z)

def dropout_layer(layer, p_dropout):
    srng = shared_randomstreams.RandomStreams(
        np.random.RandomState(0).randint(999999))
    mask = srng.binomial(n=1, p=1 - p_dropout, size=layer.shape)
    return layer * T.cast(mask, theano.config.floatX)

上一篇下一篇

猜你喜欢

热点阅读