0%

论文笔记:《Graph-Enhanced Multi-Task Learning of Multi-Level Transition Dynamics for Session-based Recommendation》


原paper:https://ojs.aaai.org/index.php/AAAI/article/view/16534

开源代码:https://github.com/sessionRec/MTD


动机:

大多数现有的基于会话的推荐技术并没有很好地设计来捕捉复杂的转换动态(complex transition dynamics),这些动态表现为时间有序和多层次相互依赖的关系结构。

complex transition dynamics 的”complex”体现在:multi-level relation(intra- and inter-session item relation) . 会话内:short-term and long-term item transition,会话间:long-range cross-session dependencies。复杂依赖的例子见Figure 1.

MTD-1

主要贡献:

1.开发了一种新的会话推荐框架,可以捕获会话内和会话间的物品转换模式(多层次转换动态)

2.开发了一种位置感知的注意力机,用于学习会话内的序列行为和session-specific knowledge。此外,在图神经网络范例的基础上,建立了全局上下文增强的会话间关系编码器,赋予MTD来捕获会话间项目依赖关系。

3.在三个数据集上取得了SOTA,Yoochoose、Diginetica、Retailrocket。

网络图:

MTD-2

方法论:

1.学习会话内的物品关系

1)Self-attention层:

QKV self-attention + feed forward network

2)位置感知的物品级的注意力聚合模块:

$\mathbf{x}_{s,I}$表示最后一次点击,$\mathbf{x^*_s}$表示聚合后的会话表示,$\mathbf{p}_s$表示加入物品相对位置信息的会话表示,$\mathbf{q}_s $是最后的会话表示。

3)loss = $\mathit{L_in}$

2.对全局转换动态建模

1)用图神经网络结构和GCN对inter-session的依赖建模

2)用互信息学习来增强跨会话的建模物品间关系的encoder

3)loss = $\mathit{L_cr}$

3.Model Inference

定义loss: