论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》

这篇具有很好参考价值的文章主要介绍了论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Addressing Confounding Feature Issue for Causal Recommendation

该文章由中科大的何向南教授发表在TOIS 2022(ccf A类)上。是我目前读过的因果推断推荐相关的文章中细节描述最为详细并且原理介绍详略得当、解释的最合理的一篇文章。如果大家有兴趣的话非常推荐大家进行研读。

1. Abstract

在推荐系统中,有一些特性会直接影响交互是否发生,这也会导致交互行为并不一定能代表用户的喜好。本文主要针对的是”在视频推荐中,短视频是更容易被完成(代表了一次交互),但实际可能用户并不喜欢这个视频“ 这样的问题。作者认为视频的长度就是视频推荐中的一个混淆因素,而现有的推荐模型都是在用户的交互数据进行模型训练,这会导致最终的模型更加偏向短视频,偏离了用户的实际需求。

为此,作者从因果关系的角度出发,阐述并解决了这个问题。提出了Deconfounding Causal Recommendation(DCR)框架。采用do算子切断虚假关联,并通过后面调整计算实际的因果关系。同时设计了混合专家(MoE)模型架构,用一个单独的专家模块对每个混淆特征的值进行建模,解决了效率问题。并最后在NFM主干模型上应用DCR框架进行了一系列实验。

2. Method

2.1 Causal View of Confounding Feature

论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》,推荐算法,论文阅读

  • U:用户特征,例如userID
  • A:已知的物品的混淆特征,例如视频长度
  • X:物品的其他特征(内容特征),主要指的是能够反映用户偏好的特征,例如itemID
  • Z:同时影响A和X的隐藏因素,这部分因素是由物品的生产引起的,但是不能观察到。例如视频创作者的意图
  • M:user-item匹配对,这个主要是用来反映物品特征和用户偏好的匹配程度
  • Y:交互标签。表示是否发生交互行为(播放完毕或者点击)
  • { X , U } → M \{X,U\} \to M {X,U}M:表示user-item匹配对是由用户特征X和物品的内容特征U决定的。
  • { A , M } → Y \{A,M\} \to Y {A,M}Y:表示交互行为是由user-item匹配程度以及混淆特征共同决定的。 A → Y A \to Y AY对应的是混淆特征影响交互概率,但是不能够反映用户的真实偏好。
  • A ← Z → X A \gets Z \to X AZX:表示隐藏因素Z同时影响混淆特征A和物品内容特征X。例如婚礼视频制作者会制作相对较长(A)的视频同时选择感人的背景音乐(X)
  • X ← Z → A → Y X \gets Z \to A \to Y XZAY:这是一个后门路径,为X和Y带来了虚假的关联。

现有的方法通常通过在历史交互中计算 P ( Y ∣ U , X , A ) P(Y|U,X,A) P(YU,X,A) P ( Y ∣ U , X ) P(Y|U,X) P(YU,X)的值来学习排序函数,得到最终的排序结果。但是这两个的值都存在着弊端。

  • P ( Y ∣ U , X , A ) P(Y|U,X,A) P(YU,X,A) :该值计算包含了 A → Y A \to Y AY,A对Y的直接影响,这会导致预测更加偏向于混淆变量。
  • P ( Y ∣ U , X ) P(Y|U,X) P(YU,X):由于存在着后门路径,这样的方法计算会忽视A对Y的影响,这导致模型会学习到X和Y之间虚假关联。

2.2 Deconfounding Causal Recommendation(DCR)

该框架主要是为了学习到X对Y的因果效应

2.2.1 Causal Intervention

X对Y的因果效应定义:将X的参考值改变为目标值后,Y的变化。

在现实生活中通常是进行随机对照实验来计算因果效应(比如说经典的吃药还是不吃药试例),然而这样的实验在推荐中是代价特别昂贵的,并且对于混淆特征问题的应用并不实际。因此通常都是进行因果干预来计算X对Y的因果效应,具体的来说,通常都是经过do算子来切断后门路径中的虚假关联,并使用后门调整来计算。公式如下:
P ( Y ∣ U , d o ( X ) ) = ∑ a ∈ A P ( Y ∣ U , X , A = a ) P ( A = a ) (1) P(Y|U,do(X)) = \sum_{a \in \mathcal{A}}{P(Y|U,X,A=a)P(A=a)}\tag{1} P(YU,do(X))=aAP(YU,X,A=a)P(A=a)(1)
我们直接认为 P ( Y ∣ U , d o ( X = x ) ) P(Y|U,do(X = x)) P(YU,do(X=x))作为X对Y的因果效应。(参考值 P ( Y ∣ U , d o ( X = x ∗ ) ) P(Y|U,do(X = x^*)) P(YU,do(X=x))对于所有item是相同的,且P(A)是不变的)

同时因为Z是一个无法观察到的隐藏混淆因素,计算 P ( Y ∣ U , d o ( X ) ) = ∑ z ∈ Z P ( Y ∣ U , X , Z = z ) P ( Z = z ) P(Y|U,do(X)) = \sum_{z \in \mathcal{Z}}{P(Y|U,X,Z=z)P(Z=z)} P(YU,do(X))=zZP(YU,X,Z=z)P(Z=z)是不切实际的。

2.2.2 Estimating P ( Y ∣ U , d o ( X ) ) P(Y|U,do(X)) P(YU,do(X))
  1. 计算 P ( A ) P(A) P(A):在本文中涉及到的混合特征A只有一个,但是它的值是K个。并且K远小于数据集 D \mathcal{D} D的大小。
    P ( A = a ) = ∣ { U , X , A , Y } ∣ A = a ∣ ∣ D ∣ (2) P(A=a) = \frac{|\{U,X,A,Y\}| A = a|}{|\mathcal{D}|}\tag{2} P(A=a)=D{U,X,A,Y}A=a(2)
  2. 计算 P ( Y ∣ U , X , A ) P(Y|U,X,A) P(YU,X,A):由于推荐中的数据稀疏性,从D中直接观察到所有概率是不可行的,因此采用机器学习的方法来学习该分布。可以通过任何的特征感知推荐模型(如FM或者NFM)来实现映射函数f(u,x,a)。
    对于给定的 U = u , X = x , A = a U=u,X=x,A=a U=u,X=x,A=a,通过以下公式3来进行计算最小化负对数似然来计算 f ( u , x , a ) f(u,x,a) f(u,x,a),即交互概率(Y=1)。 min ⁡ ∑ ( u , x , a , y ) ∈ D − y log ⁡ ( f ( u , x , a ) ) − ( 1 − y ) log ⁡ ( 1 − f ( u , x , a ) ) (3) \min{\sum_{(u,x,a,y) \in \mathcal{D}} -y\log{(f(u,x,a))} - (1-y)\log{(1-f(u,x,a))}} \tag{3} min(u,x,a,y)Dylog(f(u,x,a))(1y)log(1f(u,x,a))(3)
    f ( u , x , a ) f(u,x,a) f(u,x,a) P ( A ) P(A) P(A)计算完毕之后,就可以通过下式4来计算推荐得分。 P ( y = 1 ∣ U , d o ( X ) ) = ∑ a ∈ A P ( a ) ⋅ f ( u , x , a ) (4) P(y = 1|U,do(X)) = \sum_{a \in \mathcal{A}}{P(a) \cdot f(u,x,a)} \tag{4} P(y=1∣U,do(X))=aAP(a)f(u,x,a)(4)

2.3 Mixture-of-Experts Model Architecture(MoE)

上述的方法是通过枚举A的值进行累加和计算最终得分,总共进行了K次 f ( u , x , a ) f(u,x,a) f(u,x,a)的计算。显然这会大大增加干预的时间成本。

通常大家都会进行NWGM近似(Normalized Weighted Geometric Mean 归一化加权几何平均)来计算最终得分,但是这样会牺牲精度,尤其是当 f ( ⋅ ) f(\cdot) f()是非线性的时候。近似公式如下:
P ( y = 1 ∣ u , d o ( x ) ) ≈ f ( u , x , ∑ a ∈ A a ∗ P ( a ) ) (5) P(y=1|u,do(x)) \approx f(u,x,\sum_{a \in \mathcal{A}}{a*P(a)})\tag{5} P(y=1∣u,do(x))f(u,x,aAaP(a))(5)

以往的研究都陷入了精度和效率的二择问题中,本文设计了混合专家框架来解决这个问题。该框架只需要计算一次因果效应,同时保留了足够的精度。
实现的关键就在于在一次模型推理中计算出所有的A的值对应的f(u,x,a)。具体地,MoE框架包含了两个部分,如下图所示:
论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》,推荐算法,论文阅读

  1. Backbone Model:目标是学习x和u的匹配对的一个表示。公式如下,其中m是匹配对的潜在表示, Θ \Theta Θ是模型的参数
    m = f Θ ( u , x ) (6) m = f_{\Theta}(u,x) \tag{6} m=fΘ(u,x)(6)
  2. K Experts:每个专家对应混淆变量A的一个值a,将匹配表示m和a映射成交互概率。每个专家模块都是具有两个隐藏层的多层感知机。在形式上如下所示。
    其中 ϕ a \phi_a ϕa是a专家对应的参数。在训练阶段是通过a的one-hot编码来为每个训练样本选择专家。而在因果推断阶段,使用P(A)来个每个专家系统分配权重,计算最终的因果效应。

f ( u , x , a ) = f ϕ a ( m ∣ a ) (7) f(u,x,a) = f_{\phi_a}(m|a)\tag{7} f(u,x,a)=fϕa(ma)(7)

带有MoE框架的DCR就称之为DCR-MoE,其实现算法可以如下所示。 主要分为训练和推理两个阶段。
在训练阶段是通过a的one-hot编码来为每个训练样本选择专家,并通过最小化公式3的损失函数来进行参数更新。
min ⁡ ∑ ( u , x , a , y ) ∈ D − y log ⁡ ( f ( u , x , a ) ) − ( 1 − y ) log ⁡ ( 1 − f ( u , x , a ) ) (3) \min{\sum_{(u,x,a,y) \in \mathcal{D}} -y\log{(f(u,x,a))} - (1-y)\log{(1-f(u,x,a))}} \tag{3} min(u,x,a,y)Dylog(f(u,x,a))(1y)log(1f(u,x,a))(3)
而在因果推断阶段,使用P(A)来个每个专家系统分配权重,计算最终的因果效应。
论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》,推荐算法,论文阅读

2.4 Generality of DCR

以上已经介绍了DCR的实现细节,值得一提的是,DCR不仅仅只适用于存在潜在的混淆因素Z的情况,它是解决混淆特性问题
的通用解决方案。作者论证了以下三种情况DCR的可行性。
论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》,推荐算法,论文阅读

  • 情况a:没有潜在混淆变量Z,混淆变量A直接作用与物品内容特征X。这种情况下,与之前讨论的情况其实是一致的。
    对于变量x进行的do算子操作之后进行的后门调整计算X对Y的因果效应依然可以用公式1来计算。
    P ( Y ∣ U , d o ( X ) ) = ∑ a ∈ A P ( Y ∣ U , X , A = a ) P ( A = a ) (1) P(Y|U,do(X)) = \sum_{a \in \mathcal{A}}{P(Y|U,X,A=a)P(A=a)}\tag{1} P(YU,do(X))=aAP(YU,X,A=a)P(A=a)(1)
  • 情况b:没有潜在混淆变量Z,物品内容特征X作用于混淆变量A。在这种情况下,混淆变量A依然是X对Y的因果效应的中介之一。
    此时求X对Y的因果效应,包含了 X → A → Y X \to A \to Y XAY路径和 { X , U } → M → Y \{X,U\} \to M \to Y {X,U}MY两条路径。我们所需要的只是第二条路径上的因果效应。
    进行做差计算。 P ( Y ∣ U , X = x , A x ∗ ) − P ( Y ∣ U , X = x ∗ , A x ∗ ) = ∑ a ∈ A ( P ( Y ∣ U , x , a ) − P ( Y ∣ U , x ∗ , a ) ) P ( a ∣ x ∗ ) , (8) \begin{aligned} & P\left(Y | U, X=x, A_{x^{*}}\right)-P\left(Y | U, X=x^{*}, A_{x^{*}}\right) \\ = & \sum_{a \in \mathcal{A}}\left(P(Y | U, x, a)-P\left(Y | U, x^{*}, a\right)\right) P\left(a | x^{*}\right), \end{aligned} \tag{8} =P(YU,X=x,Ax)P(YU,X=x,Ax)aA(P(YU,x,a)P(YU,x,a))P(ax),(8)
    由于最终是对计算得到的概率进行排序,公式8中的第二部分相当于是公有部分,不会影响item的排名。相当于我们的目标是计算第一部分,如公式9所示: ∑ a ∈ A P ( Y ∣ U , x , a ) P ( a ∣ x ∗ ) (9) \sum_{a \in \mathcal{A}}{P(Y|U,x,a)P(a|x^*)}\tag{9} aAP(YU,x,a)P(ax)(9)
    因为我们可以取X的任意值为参考值 x ∗ x^* x,因此只要存在一个 x ∗ x^* x满足 P ( a ∣ x ∗ ) = P ( a ) P(a|x^*) = P(a) P(ax)=P(a),就有下式成立: ∑ a ∈ A P ( Y ∣ U , x , a ) P ( a ∣ x ∗ ) ∝ ∑ a ∈ A P ( Y ∣ U , x , a ) P ( a ) (10) \sum_{a \in \mathcal{A}}{P(Y|U,x,a)P(a|x^*)} \propto \sum_{a \in \mathcal{A}}{P(Y|U,x,a)P(a)} \tag{10} aAP(YU,x,a)P(ax)aAP(YU,x,a)P(a)(10)
    这意味着我们之前的计算方式在某种程度上可以近似这种情况下的特定路径的因果效应。
  • 情况c:当A和X之间没有任何关系时,意味着A和X是物品独立的两个特征。在这种情况下进行因果干预相当于直接计算X和Y的因果关系。
    P ( Y ∣ U , d o ( X ) ) = ∑ a ∈ A P ( Y ∣ U , x , a ) P ( a ) = P ( Y ∣ U , X ) (11) P(Y|U,do(X)) = \sum_{a \in \mathcal{A}}{P(Y|U,x,a)P(a)} = P(Y|U,X)\tag{11} P(YU,do(X))=aAP(YU,x,a)P(a)=P(YU,X)(11)

Experiments

快手和微信的两个视频数据集,详细信息如下所示,最后两个参数 ρ 1 , ρ 2 \rho_1 , \rho_2 ρ1,ρ2分别是是训练集标签和测试集标签对混淆因素A(视频长度)的皮尔逊相关系数
满足条件是测试集与训练集相比,更加不受混淆因素的影响。
论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》,推荐算法,论文阅读

进行大量实验主要是回答下面三个问题

  1. RQ1 How is the performance of the proposed framework DCR implemented with MoE (denoted as DCR-MoE) compared with existing methods?
    这个问题主要是DCR-MoE和其他模型相比的性能问题,实验结果如下所示。
    论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》,推荐算法,论文阅读

  2. RQ2 How do the design choices affect the effectiveness and efficiency of DCR-MoE?
    这个问题主要针对的是自身各个模块的有效性和效率问题,进行消融实验,结果如下:
    论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》,推荐算法,论文阅读

  3. RQ3 Has the proposed method effectively eliminated the impact of the confounding feature?
    论证DCR框架是否消除了混淆因素的影响,为此,混淆特征相同值的为一组,组与组之间进行对比实验,观察是否更加的公平。
    结果如下:
    论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》,推荐算法,论文阅读文章来源地址https://www.toymoban.com/news/detail-782059.html

到了这里,关于论文阅读《Addressing Confounding Feature Issue for Causal Recommendation》的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection》论文阅读理解

    对身体器官的射线扫描结果图片中展示了详细的结构化信息,充分利用这种身体各个部分之间的结构化信息,对检测出身体存在的异常非常重要; 提出了使用空间感知队列来进行图片绘制和检测图片中存在的异常的方法(称为SQUID); 在两个胸部X射线基准数据集上,本文所

    2024年02月15日
    浏览(29)
  • 【目标检测论文阅读笔记】FE-YOLOv5: Feature enhancement network based on YOLOv5 for small object detection

             由于其固有的特性, 小目标在多次下采样后的特征表示较弱 ,甚至在背景中消失 。 FPN简单的特征拼接  没有充分利用多尺度信息 , 在信息传递中引入了不相关的上下文 ,进一步降低了小物体的检测性能 。为了解决上述问题,我们提出了简单但有效的 FE-YOLO

    2024年02月07日
    浏览(34)
  • 论文阅读 Stepwise Feature Fusion: Local Guides Global

    我在找论文时发现,把自己的分割模型命名为ssformer的有两个:,一个论文SSformer: A Lightweight Transformer for Semantic Segmentation中提出的一种轻量级Transformer模型,结构如下 这个结构很简单,就是在用MLP层处理一下不同层的swin transformer block特征,然后融合。 这个没什么太多好说的

    2024年03月16日
    浏览(52)
  • 【论文阅读】Feature Inference Attack on Shapley Values

    研究背景 近年来,解释性机器学习逐渐成为一个热门的研究领域。解释性机器学习可以帮助我们理解机器学习模型是如何进行预测的,它可以提高模型的可信度和可解释性。Shapley值是一种解释机器学习模型预测结果的方法,它可以计算每个特征对预测结果的贡献程度,从而

    2024年02月15日
    浏览(34)
  • 论文阅读:Feature Refinement to Improve High Resolution Image Inpainting

    项目地址:https://github.com/geomagical/lama-with-refiner 论文地址:https://arxiv.org/abs/2109.07161 发表时间:2022年6月29日 项目体验地址:https://colab.research.google.com/github/advimman/lama/blob/master/colab/LaMa_inpainting.ipynb#scrollTo=-VZWySTMeGDM 解决了在高分辨率下工作的神经网络的非绘制质量的下降问题

    2024年01月17日
    浏览(32)
  • [论文阅读] Revisiting Feature Propagation and Aggregation in Polyp Segmentation

    [论文地址] [代码] [MICCAI 23] Abstract 息肉的准确分割是筛查过程中有效诊断结直肠癌的关键步骤。 由于能够有效捕获多尺度上下文信息,普遍采用类似UNet 的编码器-解码器框架。 然而,两个主要限制阻碍了网络实现有效的特征传播和聚合。 首先,跳跃连接仅将单个尺度特征传

    2024年02月02日
    浏览(57)
  • 【论文阅读】 Few-shot object detection via Feature Reweighting

    Few-shot object detection的开山之作之一 ~~ 属于Metric-based Methods 特征学习器使用来自具有足够样本的基本类的训练数据来 提取 可推广以检测新对象类的meta features。The reweighting module将新类别中的一些support examples转换为全局向量,该全局向量indicates meta features对于检测相应物体的重

    2023年04月09日
    浏览(32)
  • 《论文阅读27》SuperGlue: Learning Feature Matching with Graph Neural Networks

    研究领域: 图像特征点匹配 论文:SuperGlue: Learning Feature Matching with Graph Neural Networks CVPR 2020 veido 论文code  [参考] [参考] [参考]    SuperGlue:使用图神经网络学习特征匹配 本文介绍了SuperGlue,一种神经网络,通过 共同寻找对应点和拒绝不匹配点 来匹配两组本地特征。分配估

    2024年02月05日
    浏览(34)
  • 阅读RFDN-Residual Feature Distillation Network for Lightweight Image Super-Resolution

    Residual Feature Distillation Network for Lightweight Image Super-Resolution Abstract. 单图像超分辨率(SISR)的最新进展探索了卷积神经网络(CNN)的力量,以获得更好的性能。尽管基于cnn的方法取得了巨大的成功,但为了解决高计算量的问题,人们提出了各种快速和轻量级的CNN模型。信息蒸馏

    2024年02月10日
    浏览(29)
  • 论文阅读之Multi-modal Semantic Understanding with Contrastive Cross-modal Feature Alignment

    Multi-modal Semantic Understanding with Contrastive Cross-modal Feature Alignment 这篇文章的主要内容是关于多模态语义理解的研究,特别是通过对比学习进行跨模态特征对齐的方法。文章提出了一种新的CLIP(Contrastive Language-Image Pre-training)引导的对比学习方法,用于多模态特征对齐(CLFA,

    2024年04月11日
    浏览(28)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包