SRL 状态表示学习(continuing)

2019-10-10  本文已影响0人  vickeex

SRL methods in the following text:


Autoencoder

重构observation, 优化目标是最小化重构前后的observation error(准确说,是average reconstruction error)。即尽量使学得模型的输入和重构后输出相等。

autoencoder
observation(input) reconstruction of observation
o \hat{o}

auto_encoder loss: L(o,\hat{o})

squared error reconstruction cross_entropy
{||\hat{o}-o||}^2 -\sum_{k=1}^d{[o_klog\hat{o}_k+(1-o_k)log(1-\hat{o}_k)]}

Denoising Autoencoder (DAE)

为防止过拟合,对输入数据加入噪音:以一定概率把输入层阶段值置为0,从而得到含噪音的输入。
优化目标是:最小化初始数据和根据加噪声后重构的数据误差,额看公式吧直接。

Denoising autoencoder
observation(input) noised observation reconstruction of noised observation
o \tilde{o} \hat{\tilde{o}} = decode( encode ( \tilde{o} ) )

Denoising auto_encoder loss: L(o,\hat{\tilde{o}})
error representation: 略, 参照auto encoder


Forward Dynamics model

根据当前obs计算当前状态,并转换得到对下一时刻的状态估计。
优化目标:最小化对下一时刻的状态估计和下一时刻真实状态之间的误差。
学习两部分mapping转换:o_t转换至s_ts_t+a_t预测得\hat{s}_{t+1}

Forward model
current action next observation current state next state next state prediction
a_t o_{t+1} s_t s_{t+1} \hat{s}_{t+1}

Forward model loss: L(s_{t+1},\hat{s}_{t+1})


Inverse Dynamics model

根据当前状态和下一时刻状态预测动作.
优化目标:最小化所预测的动作和实际动作的误差.
学习两部分mapping转换:o_t转换至s_ts_t+s_{t+1}预测得\hat{a}_t

Inverse model
current action current state next state prediction action
a_t s_t s_{t+1} \hat{a}_t

Inverse model loss: L(a_t,\hat{a}_t)


Reward prediction loss

没查到,根据 srl_zoo 的实现推断如下:
根据当前状态和下一时刻状态预测奖励值(当前时刻的?).
优化目标:最小化所预测的奖励和真实奖励之间的误差.

Reward prediction loss
current state next state actual reward prediction reward
s_t s_{t+1} r_t \hat{r}_t

Reward model loss: L(r_t,\hat{r}_t)


Model with prior

使用先验知识来约束状态空间,通过约束或先验来反应agent与对象或环境的连续性或因果关系。
优化目标:最小化先验(作为损失函数)—— 当前状态和下一时刻状态间的误差。

Prior model

Prior model loss: L(s_t,s_{t+1})


Variational Autoencoder (VAE) and beta-VAE

这个还挺难呢, 下次完成。

上一篇下一篇

猜你喜欢

热点阅读