2019-04-28
2019-04-28 本文已影响0人
wwang945
Self-Attentive Sequential Recommendation
- ICDM 2018
- 用类似Transfomer的结构做序列推荐
- 以前的序列推荐一般基于Markov Chains或者RNN,Markov Chains善于处理短期相关(稀疏)的数据,RN善于处理长期相关;本文旨在平衡这两个,并且做到在这两类数据上做的比Markov Chains和RNN都好
- Self Attention:跟Transfomer(Attention is all you need)一样,只是为了做序列推荐,做了一些相应的改动
- 位置Embedding:加每个位置的Embedding一个可训练的向量
- Attention(Q,K,V)中,Q、K和V都是Embedding乘一个不同的矩阵变换得到,这样具有不对称性( i 对 j 的Attention和 j 对 i 的Attention不同)
- 每个item只对它之前的item做Attention
- 每个时间步的输出都做预测,算loss
- 加了dropout、residual和normalization
- 数据集:Amazon、Steam和MovieLens
Neural user response generator: Fake news detection with collective user intelligence
- IJCAI 2018
- 北大的文章
- 假新闻识别
- 以前的工作都是要利用假新闻的早期增长趋势,而且要等到假新闻已经散播的很广了之后才能识别
- 本文只需要用到新闻的文本内容就能识别
- 本文认为用户对新闻的评论有助于识别真假新闻,所以构造了一个生成器,生成用户对一个新闻的评论,用来帮助假新闻识别
Neural Tensor Factorization for Temporal Interaction Learning
- WSDM 2019
- 挺没贡献的一篇文章,就是LSTM加上MLP
- 类似于矩阵分解(MF),只是MF是二维的,Tensor Factorization是多维的,本文是三维的,就与预测某个user对某个item在某个time的打分
- 把每个user、item、time的用一个低维向量表示
- 然后把某时刻之前一段时间的time向量表示用LSTM建模得到dynamic time表示
- 然后把user、item、dynamic time表示三个拼起来,用MLP建模得到预测的值
Sequential recommender system based on hierarchical attention network
- IJCAI 2018
- 序列推荐,推荐下一个
- 用两层Attention结构对用户建模
- 第一层Attention:user对长的历史序列做Attention
- 第二层Attention:user对当前session里面的item(短期历史序列)做Attention(这里还加上了长期Attention的结果)
- 在同一天里面的数据看作一个session
- 用BRP loss优化模型参数
- 实验,他没切分验证集
Taxonomy-Aware Multi-Hop Reasoning Networks for Sequential Recommendation
- WSDM 2019
- 利用分类数据来做序列推荐
- 前人的方法都是从序列中学习出单个向量表示,这样限制了捕捉多粒度的序列特征
- 之前的方法也都是把直接上下文特征向量当做辅助输入,这样限制了捕捉结构模式
- 为了便于用户选择,商品一般会有多级分类信息
- 为多级分类设计了一个多跳的Memory network对用户建模,得到用户当前表示,用来预测下一个物品
- 公开了数据集和代码:https://github.com/RUCDM/TMRN
Time is of the Essence: a Joint Hierarchical RNN and Point Process Model for Time and Item Predictions
- WSDM 2019
- Session based recommendation 和 point process 结合