因果推断推荐系统工具箱 - DSC(三)
文章名称
【AAAI-2019】【University College London/Noah's Ark Lab】Debiasing Career Recommendations with Neural Fair Collaborative Filtering
核心要点
文章旨在研究领域偏差是如何影响跨领域推荐的,并在此基础上提出了针对跨领域推荐的IPS模型以及3种学习propensity score的约束,形成基于因果嵌入向量的跨领域推荐框架,在进行跨领域推荐时,消除领域偏差对用户信息迁移到影响。
上一节介绍了跨领域propensity score估计的难点以及作者提出的3种用于准确估计propensity的约束,并描述了Estimator级别约束的细节。本节继续介绍其他2种约束,以及参数优化学习的方法。
方法细节
问题引入
上一节提到,作者利用IPS方法解决跨领域推荐存在的偏差问题。IPS问题的核心问题是准确估计propensity score。然而,
- 不同领域下的用户偏好因为领域特有混淆变量的作用是有领域偏差的,但这种造成偏差的领域要素分散在各个领域的数据里,也很少的被观测到。
- 原有的用户和物品元组已经很稀疏了,现在问题扩展到了用户,物品和领域3个维度,数据更加稀疏。
作者提出estimator level,domain level以及individual level的约束(其实更像是正则化)来辅助propensity score的估计。
具体做法
首先回顾一下3种约束的核心思路,
- estimator level。Propensity score是debias权重,经过调整后,领域有偏的embedding下学习得到的误差应该和在领域无偏的embedding下学到的误差是相等的。
- domain level。结合用户的领域embedding和propensity score可以复原没有领域偏差的用户embedding。因此,可以利用多个领域复原的无偏用户embedding对齐的方式,约束propensity score。
- individual level。因为用户的特定领域的embedding表示了用户在该领域的偏好,而用户在该领域下,对所有物品的propensity score的聚合也反映了用户在该领域的偏好。两者应该在近似程度上是一致的。
Domain级别约束
在estimatior级别的约束中提到,可以利用受到domain偏差影响的domain级别的用户embedding,结合神经网络,恢复全局用户偏好的embedding。这一思路体现出propensity score不仅是debias的权重,同时反映了用户的偏好。因此,作者构建了如下图所示的(目标)约束条件,
domain level constraint其中表示利用领域的用户embedding 恢复的全局用户偏好embedding(之所以用恢复这个词,是因为领域的用户偏好embedding收到了领域内混淆变量的影响)。那么,从所有领域可以得到被恢复的全局用户偏好embedding集合,并且集合中的这些元素应该相似。表示特定领域的混淆权重(可以理解为混淆的程度吧,作者说是借鉴了[1,2,3,4]的balancing strategy)。表示各领域恢复的全局用户偏好embedding均值。作者认为让这个领域恢复的embedding相似,等价于让他们与均值接近。个人理解,这样做的目的是为了减少pair-wise的计算。Domain级别约束的最终优化目标如下图所示。
domain level lossIndividual级别约束
由于propensity score 反映了用户在领域中对物品的偏好,在不同领域中两个用户的偏好embedding越相近表示他们的喜好越一致,propensity score的聚合也越一致。值得注意的是,这里的propensity是用户-领域元组维度的,衡量的是领域下对所有物品的偏好。具体的Individual级别约束损失如下图所示。
individual level constraint loss其中,表示用户-领域维度的propensity score。利用计算两个领域用户偏好embedding的相似度。
整体优化目标和训练方法
模型的参数包括交IPS计器(传统的推荐模型的IPS纠正版本)以及跨领域IPS估计的约束模型两部分,分别用表示。
其中用如下图所示的公式进行学习。具体的算法伪代码参见伪代码部分。
IPS losss则结合前述3种约束的整体损失(如下图所示)进行参数学习。
total restriction loss代码实现
文章的伪代码如下图所示。
pseudo code心得体会
恢复变量的均值
作者利用均值把多领域恢复的全局embedding相似这件事情转化为优化对同一个目标的距离的问题。如果不这样做,很有可能需要计算两两之间的相似度。可以把均值看作是一个锚点,这种思路值得借鉴。
个人感觉,这里说借鉴了confounder balancing strategy in causal inference。但具体如何借鉴的体现的比较模糊,如果说这个值就代表了balancing strategy的话有点牵强。本身是恢复的embedding和所有领域的恢复结果的均值相近,只要恢复的值都在一个特征空间,就是一个距离最小化的问题。感觉就是个领域权重而已。
文章引用
[1] Susan Athey, Guido W Imbens, and Stefan Wager. 2016. Approximate residual balancing: De-biased inference of average treatment effects in high dimensions. arXiv preprint arXiv:1604.07125 (2016).
[2] Kwun Chuen Gary Chan, Sheung Chi Phillip Yam, and Zheng Zhang. 2016. Glob- ally efficient non-parametric inference of average treatment effects by empirical balancing calibration weighting. Journal of the Royal Statistical Society. Series B, Statistical methodology 78, 3 (2016), 673.
[3] Jens Hainmueller. 2012. Entropy balancing for causal effects: A multivariate reweighting method to produce balanced samples in observational studies. Polit- ical analysis (2012), 25–46.
[4] Kosuke Imai and Marc Ratkovic. 2014. Covariate balancing propensity score. Journal of the Royal Statistical Society: Series B: Statistical Methodology (2014).