Day13 #100DaysofMLCoding#

2018-08-29  本文已影响0人  MWhite

2018 8 28

强化学习

pdf

放弃了 先研究CNN,之后RNN,最后有精力再学RF







在决策已知的情况下,状态s时期望的rewards
在决策已知的情况下,状态s时采取a行为期望的rewards












方法优化与硬件

牺牲少量精确度来大大减少计算量



Adversarial


60%确定是熊猫的照片,添加一个人为特定计算出来的噪音之后,网络竟然99.9%认为其实长臂猿!!(猜想:那预测的时候个一个原照片分多次预测,每次都随机添加一个噪音,会不会减少这样的问题?)(再猜想:合成的图片人类觉得自然但算法觉得不自然,由此检查图片是否是合成?不可行,对于大多数添加噪声合成的图片,算法结果比较理想。如上问题是反推从A类到B类更改原图片后发现原图片几乎没有更改。)
原因解释一:可能过拟合
背景颜色为真实分布。形状为预测结果。蓝绿色为训练集,红色为预测样本且预测错误



解释二:并非过拟合,而是欠拟合
A类图片+特点噪音-》B类



左下角,右上角。没有训练数据,但我们却十分肯定左下角极大概率是X,右上角极大概率是O

新图像生成

用预先训练好的网络。计算中间层的MSE




上一篇 下一篇

猜你喜欢

热点阅读