因果推断推荐系统工具箱 - EBPR(一)
文章名称
【RecSys-2021】【University of Louisville】Debiased Explainable Pairwise Ranking from Implicit Feedback
核心要点
文章旨在通过构造新的BPR损失,赋予BPR方法的可解释性,并环节Exposure Bias对BPR损失的影响。作者提出了基于矩阵分解的可解释BPR模型EBPR,可以获得在物品级别的可解释性,并且可以根据可解释性量化Exposure Bias。
方法细节
问题引入
BPR方法比较有交互和无交互的样本,使得模型学习到保序性(把交互概率高的排在前面)。然而,原有方法没有可解释性,可能出现因为某些偏差导致结果不公平或不合理(事实上,作者认为不仅要具有保序性,还需要把更具可解释性的结果排在前面,也就是保证可解释性)。[2]表明保证可解释性偏好(explainable preference)对排序模型非常重要,作者表示者可以通过现有的评分数据进行计算,比如利用相似的物品的得分来描述为什么推荐这个物品。
把可解释性偏好高的用户-物品元组记为,低的记为
。那么,EBPR期望模型在给交互概率高的物品
较高的排名的同时,应该也确保它具有较高的
(可以理解为,把交互概率当做第一排序准则,可解释性是第二排序准则。当然实际上并不是这种硬排序规则,而是利用权重调节的)。
具体做法
EBPR
BPR的目标函数如下图所示,其中,
表示正样本(有交互的),
表示负样本(没有交互的)。
度量的是用户
更喜欢
的可能性(相对于
,并且利用sigmoid函数
把得分转换为概率)。

如果采用Matrix Factorization (MF)来作为来度量,其公式如下图所示。
分别表示用户和物品的隐向量表示。

如上所述,如果可解释性偏好矩阵可以表示为,那么EBPR的公式可以表示为如下图所示。

本质上是给BPR损失加入了一个权重,意味着,正样本的可解释性更大或者负样本的可解释性更低,亦或是两者兼有,都会让这个样本的重要性变高,模型更可能学到把高解释性的正样本往前排,地解释性的负样本往后排。
Explainability Matrix
在推荐系统中,可解释性可以从多个角度(给出)衡量,比如利用物品或用户属性(也被称之为元数据)解释为什么用户会喜欢某个物品,又如从用户的评论给出理由等。从协同过滤的角度,对推荐结果做可解释,一般采用最近邻的方法(neighborhood-based[2])。同协同过滤方法一致,可以被分为基于物品的和基于用户的最近邻解释。
作者仅仅利用交互矩阵的数据(也是BPR唯一的数据源,不像其他解释模型一样,还会利用到元数据和评论文本),扩展了[2]的思路,构建了基于最近邻物品的可解释矩阵(当然可以泛化到user-base,但作者认为相似物品比相似用户更直觉,用户更容易接受)。矩阵中的每一个元素,表示用户
和物品
交互的可解释性,是用户与物品
的
近邻物品集合的交互概率
。值得注意的是,这里的
是一个集合相关的交互概率,而不是与某一个物品交互概率的估计值。
解释矩阵可以离线进行计算,并且短时间内仅需要进行一次,就是利用余弦相似度,计算近邻物品的交互频率,因此相对BPR没有额外的开销(作者解释这些是为了表示,该方法优于那些需要后续复杂计算的Post-hoc解释方法)。
这一节讲解了BPR方法的问题,以及作者构建EBPR和Explainability Matrix矩阵的思路,下一节继续介绍EBPR中的曝光偏差以及如何进行无偏EBPR学习。
心得体会
Explainability Matrix
作者把可解释矩阵定义为集合交互概率,稍微有一点不寻常(虽然说感觉有点怪,但是其实很合理)。文中作者提到,。可以看出,可解释性适合用户与物品
的
近邻物品的交互个数有关系,交互的个数越多,可解释性越强。所以,其实虽然是一个概率值,但其实是归一化后的交互个数,可能从这个角度更好理解。
如果非要给这个概率一个直观解释,可以把物品集合看做一个整体,理解为和这个整体发生交互的概率。不管是跟某一个物品交互概率大,还是多个物品概率和加起来大。(定义这个概率的随机事件是与单个或多个物品发生交互)。
文章引用
[1] Behnoush Abdollahi and Olfa Nasraoui. 2017. Using explainability for constrained matrix factorization. In Proceedings of the Eleventh ACM Conference on
Recommender Systems. 79–83.