摘要
对比学习因其能够提取数据本身包含的监督信号而被广泛应用于推荐任务中。最近的研究表明,对比学习在推荐方面的成功依赖于对比损失带来的节点分布的均匀性。此外,另一项研究证明贝叶斯个性化排序(BPR)损失的正项与负项分别带来的对齐性和均匀性有助于提高推荐性能。由于在对比学习框架中对比损失能够带来比BPR负项更强的均匀性,BPR负项存在的必要性值得商榷。通过实验表明在对比框架中BPR的负项是不必要的,并基于这一观察提出了无需负采样的联合优化损失,可应用于经典的对比学习的方法并达到相同或更高的性能。此外,与专注于提高均匀性的研究不同,为进一步加强对齐性,提出了一种新颖的正样本增强的图对比学习方法(PAGCL),该方法使用随机正样本在节点表示层面进行扰动。在多个基准数据集上的实验表明,该方法在召回率及归一化折损累计增益这两种常用指标上均优于SOTA方法自监督图学习(SGL),简单图对比学习(SimGCL)等,且其相对于基模型轻量化图卷积(LightGCN)的提升最大可达17.6%。
- 单位