【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation

这篇具有很好参考价值的文章主要介绍了【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

【论文阅读】Adap-𝜏: Adaptively Modulating Embedding Magnitude for Recommendation

1. 来源

【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding

  • 2023 WWW CCFA
  • https://arxiv.org/pdf/2302.04775.pdf
  • https://github.com/junkangwu/Adap_tau

2. 介绍

近年来,基于嵌入式嵌入的方法在推荐系统中取得了巨大的成功。

  • 尽管它们的性能不错,但我们认为这些方法的一个潜在局限性——嵌入幅度没有被明确调制,这可能会加剧流行偏差和训练不稳定性,阻碍模型做出好的推荐。
  • 它激励我们利用推荐中的嵌入规范化。通过将用户/项目嵌入规范化到一个特定的值,我们在四个真实世界的数据集上观察到令人印象深刻的性能提高(平均9%)。
  • 虽然令人鼓舞,但我们在推荐中应用归一化时也揭示了一个严重的限制——性能对控制归一化嵌入规模的温度 𝜏 的选择高度敏感。
  • 为了充分培养归一化的优点,同时规避其局限性,本文研究了如何自适应地设置适当的 𝜏。为此,我们首先对𝜏进行了全面的分析,以充分了解其在推荐中的作用。然后,我们开发了一种自适应细粒度策略 Adap-𝜏,它满足四种理想的特性,包括自适应、个性化、效率和模型不可知。
  • 作者进行了广泛的实验来验证该提案的有效性。该代码可以在 https://github.com/junkangwu/Adap_tau 上找到。

3. 模型解读

3.1 准备工作

在本节中,我们将介绍一些推荐系统的背景。

3.1.1 任务说明

假设我们有一个带有用户集 U U U 和项目集 I I I 的推荐系统。让 𝑛 和 𝑚 表示RS中的用户数量和项目的数量。收集到的隐式反馈可以用矩阵 𝑌∈{0,1} n × m ^{n\times m} n×m来表示,其元素 y u i y_{ui} yui 表示用户 u u u 是否与一个项目 i i i 进行了交互(例如,点击)。为方便起见,我们将整个交互的数据收集为 D={(𝑢,𝑖)|𝑦𝑢𝑖= 1};将每个用户𝑢(项目𝑖)的交互项(用户)收集为P𝑢≡{𝑖|𝑦𝑢𝑖=1}(P𝑖≡{𝑢|𝑦𝑢𝑖= 1})。RS的任务是为每个用户推荐他可能感兴趣的项目。

3.1.2 基于嵌入的模型

基于嵌入的方法在RS中得到了广泛的应用。他们首先将用户/项目特征(如id)转换为向量化表示(即e𝑢、e𝑖),然后根据嵌入的相似度进行预测。被广泛使用的相似度函数包括内积和神经网络。为了方便起见,本工作只采用具有代表性的内积进行分析,即模型预测可以表示为:
【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding

3.1.3 损失函数

训练推荐模型有多种损失函数选择,包括点态损失(如BCE、MSE)、成对损失(如BPR)和Softmax损失。最近的工作发现,Softmax损失可以减轻人气偏差,实现良好的训练稳定性,并与排名度量很好地一致。它通常比其他更好的性能,因此吸引了对推荐的兴趣。此外,Softmax损耗可以被认为是常用的BPR损耗的扩展。因此,我们将Softmax视为代表损失来作分析,可以表述为:
【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding
在实践中,经常包含一个日志操作,并进行负采样或小批处理策略来加速。但它们不是我们的重点,这里我们只是参考原始损失进行理论分析。

3.1.4 嵌入归一化

本工作研究了在推荐中嵌入规范化的性质。在内积的基础上,我们在预测中利用嵌入规范化如下:
【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding
其中,用户/项目嵌入的大小已被重新调整。第一个因素:
【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding
可以理解为余弦相似度,其中的大小已经被隔离;第二个因子 1/𝜏 重新调整了归一化嵌入。我们注意到,我们没有直接引入一个控制尺度的参数,而是在对比学习中借用了类似的想法,并利用了传统的温度。这种排列可以使我们的发现更好地推广到其他领域。

3.2 分析嵌入的规范化

在本节中,我们首先验证了在RS中利用嵌入规范化的本质。(3.2.1),然后确定一个潜在的限制(3.2.2).最后,我们对温度进行了全面的分析,并揭示了它的两个重要作用 (3.2.3)。

3.2.1 规范化的必要性
  • 理论分析。

    • 我们从理论分析开始,表明如果没有标准化,流行项目的大小比不受欢迎的项目增长得快得多。事实上,我们有:
      • 引理1。通过选择不控制大小的内积,我们在每次迭代中都有项目嵌入大小 𝛿𝑖 的变化:
        【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding
        在训练程序的早期阶段,𝛿𝑖 遵守:
        【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding
        该引理的证明方法见原文附录B.1。我们可以从Lamma 1中得出一个观察结果:请注意,在训练过程的早期阶段,用户和项目都是均匀分布的。换句话说, p u i f ( u , i ) p_{ui}f(u,i) puif(u,i) 不能区分出显著的差异, ∑ k ∈ N u p u k ( τ ) \sum_{k\in N_u} p_{uk}(\tau) kNupuk(τ)相对较小,而流行项目的规模将获得 ∣ P i ∣ ( I [ y u i = 1 ] ) |P_i|(I[y_{ui}=1]) Pi(I[yui=1]) 的爆炸性上升。
  • 实证分析。

    • 从引理1中,我们知道这个大小与项目的受欢迎程度相关。在本小节中,我们通过丰富的实验来探讨其对推荐的负面影响。
    • 实验设计。为了展示自由变化幅度的影响,这里我们进行了四个实验:
      • (1) 我们首先在训练过程中可视化不同项目受欢迎程度的项目嵌入的幅度(图1 a)。在这里,我们根据项目的受欢迎程度将项目分为十组。较大的组ID表示该组包含更多流行的项目
      • (2) 我们还报告了不同项目组的表现(图1 b)。
      • (3) 具有训练时期的积极实例的预测分数为如图1 c. 所示。
      • (4) 我们可视化了有无归一化的MF的性能(图1 d)。所有实验均在MF主干和Yelp2018 数据集上进行。
      • 类似的结果也可以在其他模型(如LightGCN)和数据集上观察到。实验设置的详细信息可参考第5.1节。
    • 自由变化的幅度加剧了人气偏见。如果我们关注于训练的早期阶段(图1 (a)),流行物品的数量迅速上升,这与理论证明相一致。因此,流行的项目容易获得更高的分数,因为大小直接有助于模型预测。此外,不同的大小也损害了用户嵌入的训练。用户嵌入的梯度可以写成:𝜕𝜕𝐿e𝑢=I𝑢,𝑖𝜕𝑓𝜕𝐿(𝑢,𝑖)e𝑖,其中规模较大的流行项目会发挥过度的贡献,并可能压倒来自他人的信号。这个模型会陷入有偏差的结果。图1:(b)提供了证据。这个模型会陷入有偏差的结果。可以看出,有归一化的模型比没有归一化的模型产生了更公平的结果。
    • 自由变化的幅度损害了收敛性。如果我们将注意力转向图1 ©中的训练结束时,我们观察到,即使有许多epoch(例如,500),香草MF的预测分数和嵌入幅度仍然处于上升而不是收敛的状态,而性能持续下降(图1 (d))。但是当我们利用在MF中的规范化时,我们观察到令人印象深刻的改进——模型以更少的epoch(即20)快速收敛,并且在更多的epoch时表现稳定。
    • 规范化可以提高性能。为了进一步验证规范化的优点,在这里,我们直接测试了无论是否对用户或项目嵌入进行规范化时的推荐性能(表1)。可以看出,具有双边归一化的模型(即Y-Y)的性能明显优于具有单边归一化的模型(即Y-N或N-Y),而且它们都超过了未进行归一化的模型(N-N)。

【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding
【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding
【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation,论文阅读,方法介绍,论文阅读,embedding文章来源地址https://www.toymoban.com/news/detail-530343.html

  • 文章很枯燥,不想看了,屮。想看去自己看原文吧。

到了这里,关于【论文阅读】Adap-t: Adaptively Modulating Embedding Magnitude for Recommendation的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【自监督论文阅读笔记】Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture

    2023         本文展示了一种 学习高度语义图像表示 的方法,而 不依赖于手工制作的数据增强 。本文介绍了 基于图像的联合嵌入预测架构 (I-JEPA) ,这是一种用于从图像进行自监督学习的 非生成方法 。 I-JEPA 背后的想法很简单: 从单个上下文块,预测同一图像中各种目

    2024年02月09日
    浏览(48)
  • 【论文笔记】 VIT论文笔记,重构Patch Embedding和Attention部分

    相关链接: VIT论文:https://arxiv.org/abs/2010.11929 VIT视频讲解:https://www.bilibili.com/video/BV15P4y137jb/?spm_id_from=333.999.0.0vd_source=fff489d443210a81a8f273d768e44c30 VIT源码:https://github.com/vitejs/vite VIT源码(Pytorch版本,非官方,挺多stars,应该问题不大):https://github.com/lucidrains/vit-pytorch 重点掌握:

    2024年02月11日
    浏览(44)
  • IMAGEBIND: One Embedding Space To Bind Them All论文笔记

    论文 https://arxiv.org/pdf/2305.05665.pdf 代码 https://github.com/facebookresearch/ImageBind 像CLIP这一类的方法只能实现Text-Image这两个模态的 Embedding 对齐,本文提出的ImageBind能够实现六个模态(images, text, audio, depth, thermal, and IMU data)之间的联合Embedding空间对齐。 本文的多模态之间的对齐也不

    2024年02月07日
    浏览(46)
  • 论文阅读:Vary论文阅读笔记

    论文:Vary: Scaling up the Vision Vocabulary for Large Vision-Language Models Paper | Github | Demo 许久不精读论文了,内心一直想找个专门的时间来细细品读自己感兴趣的论文。现在想来,无异于是自己骗自己了,因为根本就不存在那个专门的时间。所以改变最好的时候就是现在。 因为自己一

    2024年01月19日
    浏览(46)
  • 【论文阅读】(20230410-20230416)论文阅读简单记录和汇总

    2023/04/09:很久没有动笔写东西了,这两周就要被抓着汇报了,痛苦啊呜呜呜呜呜 (CVPR 2023): Temporal Interpolation Is All You Need for Dynamic Neural Radiance Fields (ICCV 2021):Video Autoencoder: self-supervised disentanglement of static 3D structure and motion (CVPR 2023):DINER: Disorder-Invariant Implicit Neural Representat

    2024年02月12日
    浏览(41)
  • 论文阅读:Vary-toy论文阅读笔记

    论文:Small Language Model Meets with Reinforced Vision Vocabulary Paper | Github | Demo 说来也巧,之前在写论文阅读:Vary论文阅读笔记文章时,正好看到了Vary-toy刚刚发布。 这次,咱也是站在了时代的前沿,这不赶紧先睹为快。让我看看相比于Vary,Vary-toy做了哪些改进? 从整体结构来看,仍

    2024年01月25日
    浏览(60)
  • 论文阅读:TinyGPT-V 论文阅读及源码梳理对应

    引言 TinyGPT-V来自论文:TinyGPT-V: Efficient Multimodal Large Language Model via Small Backbones,是一篇基于较小LLM作为backbone的多模态工作。相关工作已经开源,地址为:Github 之所以选择这篇文章,是因为比较具有落地意义,且便于本地运行,查看和调试。 以下代码只给出核心部分,会省

    2024年01月16日
    浏览(65)
  • 论文阅读1---OpenCalib论文阅读之factory calibration模块

    该论文的标定间比较高端,一旦四轮定位后,可确定标定板与车辆姿态。以下为本人理解,仅供参考。 工厂标定,可理解为车辆相关的标定,不涉及传感器间标定 该标定工具不依赖opencv;产线长度一般2.5米 Factory Calibration Tools:四轮定位+多位姿标定板 1)根据传感器安装位姿

    2024年01月25日
    浏览(47)
  • 【论文阅读】(2023.06.09-2023.06.18)论文阅读简单记录和汇总

    2023/06/09:虽然下周是我做汇报,但是到了周末该打游戏还是得打的 2023/06/12:好累好困,现在好容易累。 (TCSVT 2023)Facial Image Compression via Neural Image Manifold Compression (arxiv 2023)Exploring the Rate-Distortion-Complexity Optimization in Neural Image Compression (arxiv 2023)High-Similarity-Pass Attenti

    2024年02月09日
    浏览(41)
  • 【论文阅读】视线估计方向论文

    2022年过去,总结一下已经看过的论文的汇总以及对开展实验的一点想法: 首先,参考[1]中提出的分类,可以将 视线估计(gaze estimation) 分为: 注视目标估计 (gaze target detection,or gaze following),跨帧的视频注视目标估计; 注视点估计 ,估算人双目视线聚焦的在一个二维屏

    2023年04月08日
    浏览(111)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包