News推荐研究专区推荐系统研究专区数据分析实战

新闻推荐(3): 基于用户长短期表示的新闻推荐: Neural

2020-03-04  本文已影响0人  阿瑟_TJRS

本文是自己在推荐系统研究中研读的论文翻译及解读,原文:Neural News Recommendation with Long- and Short-term User Representations

摘要

个性化新闻推荐对于帮助用户发现感兴趣的新闻,提高阅读体验具有重要意义。新闻推荐中的一个关键问题是学习准确的用户表征以获取他们的兴趣。用户通常有长期偏好和短期兴趣。然而,现有的新闻推荐方法通常只学习用户的单一表示,这可能是不够的。

本文提出了一种能同时学习长期和短期用户表示的神经新闻推荐方法。
方法的核心是新闻编码器和用户编码器。

引言

在线新闻平台汇集各种来源的新闻并推荐给用户,用户群体庞大。然而,每天都会产生大量的新闻,使得用户无法阅读所有的新闻。因此,个性化的新闻推荐对于在线新闻平台帮助用户找到感兴趣的内容,缓解信息过载非常重要。

学习准确的用户表示对于新闻推荐至关重要。现有的新闻推荐方法通常为每个用户学习一个表示,如有工作提出使用去噪自动编码器学习新闻的表示,并使用GRU网络从用户浏览的新闻中学习用户的表示。然而,像GRU这样的RNN网络很难捕捉到非常长的新闻浏览历史的全部信息。有工作提出使用knowledge-aware的CNN学习新闻的表征,并基于候选新闻和浏览新闻的相似性从用户浏览的新闻中学习用户的表征。然而,这种方法需要在在线新闻推荐阶段存储每个用户的整个浏览历史,这可能会给存储带来巨大的挑战,并可能造成较大的延迟。

本文的工作是基于这样一种观察:即网络用户对新闻的兴趣是非常多样化的。一些用户兴趣可能会持续很长一段时间,并且对于同一个用户来说是一致的。例如,如果用户是“金州勇士”的粉丝,则该用户可能倾向于在数年内阅读有关该NBA球队的许多篮球新闻。我们称这种用户偏好为长期兴趣。此外,许多用户兴趣可能随着时间的推移而变化,并可能由特定的上下文或时间需求触发。例如,浏览电影“波希米亚狂想曲”上的新闻会导致用户阅读一些相关新闻,例如“Rami Malek赢得2019年奥斯卡奖”,因为“Rami Malek”是该电影中的重要演员,尽管该用户可能永远不会阅读有关“Rami Malek”的新闻。我们称这种用户兴趣为短期兴趣。因此,长期和短期用户兴趣对于个性化新闻推荐都很重要,区分长期和短期用户兴趣有助于学习更准确的用户表示

模型设计

News Encoder

主要结构包括:

定义e_ve_{sv}作为主题和副标题的表示。新闻的最终表现是标题、主题和副标题的串联,即e=[e_t,e_v,e_sv]

笔者注:新闻编码部分总体看来平平无奇,常规操作,包括主题副标题使用的部分,也很简单

User Encoder

例如,如果一个用户只是阅读了一篇关于“Mission: Impossible 6 – Fallout”的新闻文章,她可能想更多地了解这部电影中的演员“汤姆克鲁斯”,并点击与“汤姆克鲁斯”相关的新闻,尽管她不是他的粉丝,可能以前从未读过他的新闻。

本文提出从用户最近的浏览历史中学习用户的短期表示以捕捉他们的时间兴趣,并使用GRU来限定顺序新闻阅读模式。表示按时间戳按升序排序的用户的新闻浏览序列为C={c_1,c_2,…,c_k},其中k是此序列的长度。我们应用新闻编码器来获得这些新闻的表示,表示形式为{e_1,e_2,...,e_k}

最终用gru网络的隐藏状态来表示短期表征
文中提出了两种的具体表征结合方法:
  1. 将用户长期兴趣表示作为用户短期用户表示计算中GRU的初始状态(LSTUR-ini)
  2. 将用户长短期兴趣表示拼接作为最终用户表示(LSTUR-con)。

候选新闻的个性化分数通过用户表示向量和新闻表示向量的内积计算,作为众多候选新闻针对特定用户个性化排序的依据。
注: 第一种结合方法稍有创新,总体仍然平平无奇

训练过程基于负采样进行,对于一个用户浏览的每一条新闻(作为正例),随机抽取来自同一页面的K篇新闻文章,这些文章没有被这个用户点击作为负例子。我们的模型将联合预测正负样本的点击概率得分。这样,新闻点击预测问题被重新定义为一个K+1类 分类任务。我们将训练期间所有阳性样本的负对数似然之和最小化,其公式如下:

由于并非所有的用户都能被纳入到新闻推荐模型的训练中(例如,新来的用户),因此在预测阶段假设所有用户在我们的模型中都有长期表征是不合适的。

无法学习新到来用户的长期兴趣的表示向量。在预测的过程中简单地将新用户的长期兴趣表示置为零向量可能无法取得最优的效果。为了解决这个问题,该论文提出在模型训练的过程中模拟新用户存在的情况,具体做法是随机掩盖(mask)部分用户的长期兴趣表示向量,即用户的长期兴趣表示向量会以概率p被置为全零向量。实验表明,无论是LSTUR-ini还是LSTUR-con,在训练过程中加入长期兴趣随机掩盖(random mask)的做法均能明显提升模型效果。

,按照伯努利分布进行随机mask
这种设计方法在实际模型训练中很有帮助

实验

由于没有现成的新闻记录数据集,论文在2018年12月23日至2019年1月19日的4周内,通过收集MSN News的日志,自行构建了一个。把前三周的日志用于模型训练,上一周的日志用于测试;还随机抽取了训练集中10%的日志作为验证数据。对于每个用户,收集了过去7天的浏览历史,以了解短期用户表示

具体的实验参数设置包括,使用Glove获取词向量,mask的概率为0.5;超参数在的验证集上训练得到。 对比实验效果如下:

总结

该文总体而言相对比较流畅,但创新性一般,有一些小的track,总体平淡无奇。

上一篇下一篇

猜你喜欢

热点阅读