论文阅读“Advances in Variational Inf

2022-01-23  本文已影响0人  掉了西红柿皮_Kee

Zhang C, Bütepage J, Kjellström H, et al. Advances in variational inference[J]. IEEE transactions on pattern analysis and machine intelligence, 2018, 41(8): 2008-2026.
--
该论文为综述性论文,所以笔者打算分几部分来完成论文的阅读。(都是因为太菜了
本部分为Amortized Variational inference & Deep learning

本部分旨在介绍Amortized Variational inference & Deep learning。首先设定每个数据点x_i由其对应的隐变量z_i和变分参数\xi_i,传统的VI需要对每个样本点x_i\xi_i都进行优化,这在计算上是昂贵的,特别是当这种优化嵌入全局参数更新循环时。Amortized Inference背后的基本思想是,根据x_i的特征,使用一个强大的预测函数来预测z_i的后验信息,即z_i=f(x_i),其中f是一个随机函数。通过这种方式,局部变分参数被数据的一个函数所取代,该函数的参数在所有数据点之间共享,即,推理是Amortized。

Amortized Variational Inference理论
Amortized Inference是指利用过去计算的Inference来支持未来的计算。对于 VI,Amortized Inference通常是指对局部变量的推断。

如上图所示,Amortized VI不是为每个数据点近似独立的变量,而是假设局部变分参数可以通过数据的参数化函数来预测。因此,一旦估计了这个函数,就可以通过函数作用新的数据点来获得潜在变量表示,如VAE所显示的一样。在此背景下使用的深度神经网络也称为推断网络。换句话说,融合推断网络的Amortized Inference将概率建模与深度学习的表征能力进行了结合。
Amortized Inference已经应用在Deep Gaussian Processes(DGPs)【Deep Gaussian processes】。该模型的推断是非常棘手的,因此有学者在引入诱导点的前提下使用MFVI。然而,有学者提议将这些潜在变量作为推理网络的函数来估计【Variational auto-encoded deep Gaussian processes】,从而代替单独估计这些潜在变量,使得DGPs可以扩展到更大的数据集,并加快收敛速度。通过将Amortized Inference误差反馈到推理模型中,Amortization也可以进行迭代。

Variational Autoencoders
VAE

Amortized VI在深层潜在高斯模型(deep latent Gaussian models)领域已经成为了常用的工具。这就引出了变分自编码器(VAEs)的概念,该概念由两个小组独立提出【Auto-encoding variational Bayes】【Stochastic backpropagation and approximate inference in deep generative models】。与DLGM相比, VAEs的应用更为普遍,但为了简单起见,我们将把讨论限制在这个模型上。

Advancements in VAEs

自VAE提出以来,随之产生了很多扩展。笔者这里重点关注了关于变分近似q_{\phi}和模型的选择p_{\theta}


原来我平时理解的VAE仅仅是最初级的状态。再次发出长叹。。。 菜到不想说话
上一篇 下一篇

猜你喜欢

热点阅读