神经网络相关概念介绍2018-01-26

2018-01-30  本文已影响0人  Jackpot_0213

误差函数

  1. 之前下图的误差不就是有几个点不在指定区域吗(此图为2),现在可一样了,我把你放大了,我就用面积衡量你,说实在的,就是加上你离我的三八线是近是远的条件喽
    2.有点的实在是分不到自己的区域,看看要是你半个身子在正确的地方,你就让让红的嘛,不是每个人都能满意嘛,男人多点承让,一定能成大事~!(我们女生也就不用成天生气了)
image.png

总之,我现在不要非零即一,我需要0-1中间的百分率aaaaaa,毕竟喜欢和不喜欢谁也说清楚啊,我需要你告诉我你多么喜欢我or多么不喜欢我!

交叉熵

image.png
import numpy as np

# Write a function that takes as input two lists Y, P,
# and returns the float corresponding to their cross-entropy.
def cross_entropy(Y, P):
    Y = np.float_(Y)
    P = np.float_(P)
    return - np.sum(Y*np.log(P)+(1-Y)*np.log(1-P))

神经网络

就像神经元一样,两个神经元转出来的内容,再经过总和,得到一个好的结果
下图所示:
根据不同情况,对线性模型进行中和吧。
每个线性的不是有输出吗,把他当做是输入,在进行权值相乘加上偏量,


image.png

经过s函数,变成0-1之间的数,然后就有了下图的多层


image.png image.png

前向反馈

就是根据提供的权值和偏移量进行输出,然后和真实结果相比较得到误差函数


image.png image.png

反向传播

现在,我们准备好训练神经网络了。为此,我们将使用一种方法,叫做反向传播。简而言之,反向传播将包括:

通俗的说,就是前两个线性的合成了右面的非线性的,结果还是有分类错的



那就是顶部模型的分类有错喽,就返回去再更改上一层的权值喽

上一篇 下一篇

猜你喜欢

热点阅读