因果推断推荐工具箱

因果推断推荐系统工具箱 - EBPR(一)

2021-12-12  本文已影响0人  processor4d

文章名称

【RecSys-2021】【University of Louisville】Debiased Explainable Pairwise Ranking from Implicit Feedback

核心要点

文章旨在通过构造新的BPR损失,赋予BPR方法的可解释性,并环节Exposure Bias对BPR损失的影响。作者提出了基于矩阵分解的可解释BPR模型EBPR,可以获得在物品级别的可解释性,并且可以根据可解释性量化Exposure Bias。

方法细节

问题引入

BPR方法比较有交互和无交互的样本,使得模型学习到保序性(把交互概率高的排在前面)。然而,原有方法没有可解释性,可能出现因为某些偏差导致结果不公平或不合理(事实上,作者认为不仅要具有保序性,还需要把更具可解释性的结果排在前面,也就是保证可解释性)。[2]表明保证可解释性偏好(explainable preference)对排序模型非常重要,作者表示者可以通过现有的评分数据进行计算,比如利用相似的物品的得分来描述为什么推荐这个物品。

把可解释性偏好高的用户-物品元组记为E_{ui_+},低的记为E_{ui_-}。那么,EBPR期望模型在给交互概率高的物品i_+较高的排名的同时,应该也确保它具有较高的E_{ui_+}(可以理解为,把交互概率当做第一排序准则,可解释性是第二排序准则。当然实际上并不是这种硬排序规则,而是利用权重调节的)。

具体做法

EBPR

BPR的目标函数如下图所示,其中D=\{(u, i_+, i_-)| u\in U, i_+\in I^+_u, , i_-\in I^-_u\}+表示正样本(有交互的),-表示负样本(没有交互的)。f_{\Omega}度量的是用户u更喜欢i_+的可能性(相对于i_-,并且利用sigmoid函数\sigma把得分转换为概率)。

BRP objective function

如果采用Matrix Factorization (MF)来作为f_{\Omega}来度量,其公式如下图所示。P, Q分别表示用户和物品的隐向量表示。

Matrix Factorization f

如上所述,如果可解释性偏好矩阵可以表示为E = (E_{ui}) \in [0, 1]^{|U|\times|I|},那么EBPR的公式可以表示为如下图所示。

EBRP objective function

本质上是给BPR损失加入了一个权重E_{ui_+}(1-E_{ui_-}),意味着,正样本的可解释性更大或者负样本的可解释性更低,亦或是两者兼有,都会让这个样本的重要性变高,模型更可能学到把高解释性的正样本往前排,地解释性的负样本往后排。

Explainability Matrix

在推荐系统中,可解释性可以从多个角度(给出)衡量,比如利用物品或用户属性(也被称之为元数据)解释为什么用户会喜欢某个物品,又如从用户的评论给出理由等。从协同过滤的角度,对推荐结果做可解释,一般采用最近邻的方法(neighborhood-based[2])。同协同过滤方法一致,可以被分为基于物品的和基于用户的最近邻解释。

作者仅仅利用交互矩阵的数据(也是BPR唯一的数据源,不像其他解释模型一样,还会利用到元数据和评论文本),扩展了[2]的思路,构建了基于最近邻物品的可解释矩阵(当然可以泛化到user-base,但作者认为相似物品比相似用户更直觉,用户更容易接受)。矩阵中的每一个元素E_{ui} = P(Y_{uj} = 1|j \in N_{i}^{\eta}),表示用户u和物品i交互的可解释性,是用户与物品i\eta近邻物品集合的交互概率Y_{uj}。值得注意的是,这里的Y_{uj}是一个集合相关的交互概率,而不是与某一个物品交互概率的估计值。

解释矩阵可以离线进行计算,并且短时间内仅需要进行一次,就是利用余弦相似度,计算近邻物品的交互频率,因此相对BPR没有额外的开销(作者解释这些是为了表示,该方法优于那些需要后续复杂计算的Post-hoc解释方法)。

这一节讲解了BPR方法的问题,以及作者构建EBPR和Explainability Matrix矩阵的思路,下一节继续介绍EBPR中的曝光偏差以及如何进行无偏EBPR学习。

心得体会

Explainability Matrix

作者把可解释矩阵定义为集合交互概率,稍微有一点不寻常(虽然说感觉有点怪,但是其实很合理)。文中作者提到,E_{ui} = \frac{|N_{i}^{\eta} \cap I_{+}^{u}|}{\eta}。可以看出,可解释性适合用户与物品i\eta近邻物品的交互个数有关系,交互的个数越多,可解释性越强。所以,其实虽然是一个概率值,但其实是归一化后的交互个数,可能从这个角度更好理解。

如果非要给这个概率一个直观解释,可以把物品集合看做一个整体,理解为和这个整体发生交互的概率。不管是跟某一个物品交互概率大,还是多个物品概率和加起来大。(定义这个概率的随机事件是与单个或多个物品发生交互)。

文章引用

[1] Behnoush Abdollahi and Olfa Nasraoui. 2017. Using explainability for constrained matrix factorization. In Proceedings of the Eleventh ACM Conference on
Recommender Systems. 79–83.

上一篇 下一篇

猜你喜欢

热点阅读