VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记

这篇具有很好参考价值的文章主要介绍了VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


写在前面

  又是一周周末,在家的时间感觉过得很快呀,下周就能回学校啦~

  • 论文地址:Open-Set Domain Adaptation with Visual-Language Foundation Models
  • 代码地址:当前版本暂未提供代码地址
  • 预计提交于:CVPR 2024
  • Ps:2023 年每周一篇博文阅读笔记,主页 更多干货,欢迎关注呀,期待 5 千粉丝有你的参与呦~

一、Abstract

  无监督域适应在知识迁移中很管用。由于目标域标签的缺失和一些未知类别的存在,开放域适应 open-set domain adaptation (ODA) 是个不错的解决办法。现有的 ODA 方法旨在解决源域和目标域的分布迁移问题,而大多数方法微调那些训练在 ImageNet 上的源域模型。最近的视觉语言基础模型 visual-language foundation models (VLFM),例如 CLIP 对大多数迁移分布鲁棒,直觉上应该能够提升 ODA 的性能。于是本文探索 CLIP 的更通用方式应用于 ODA。使用 CLIP 调查 zero-shot 的预测能力,然后提出一种交叉熵优化策略来辅助 ODA 模型。实验效果很好。

二、引言

  为了获得大规模标签数据,无监督域适应 unsupervised domain adaptation (UDA) 将标签源域中的知识转移到无标签的目标域中。传统的域适应技术假设源域和目标域共享相同的类别,然而大多数目标域中存在源域中未知的类,这一任务即开放域适应 open-set domain adaptation (ODA)。
  ODA 中主要挑战在于需要在训练阶段识别出未知类。现有的 ODA 方法通常用预训练在 ImageNet 上的模型进行权重初始化,然后在目标域上微调,因此这些方法的性能非常依赖于预训练模型的质量以及两个域的分布偏移程度。
  预训练在大尺度数据集上的视觉语言基础模型 visual-language foundation models (VLFM),例如 CLIP 泛化能力很强,于是本文将 CLIP 用于 ODA。首先调研 CLIP 在 ODA 不同数据集上的鲁棒性,然后关注 CLIP 在 ODA 上的 zero-shot 能力。本文发现当目标域中目标样本被视作已知样本时,CLIP 的输出有很低的的交叉熵,而视为未知样本时,则有很高的的交叉熵。为实现 ODA,再利用源域数据训练一个其他的图像分类模型,名为 ODA 模型。对于目标域中检测到的已知样本,CLIP 的预测知识将会蒸馏到 ODA 模型,于是通过 CLIP 的知识可以帮助适应目标域中的已知样本。对于目标域中检测到的未知样本,通过最大化 ODA 模型的交叉熵,训练 ODA 模型输出低置信度的预测,这些未知样本将进一步分离出来。利用交叉熵优化策略整合 CLIP 的输出,给 ODA 模型提供丰富的区分性特征。
  此外,本文的方法能够应用在源域无关的 ODA 上,即 source-free ODA (SF-ODA),其中目标域样本的适应仅需 ODA 模型即可实现,无需源域数据。

  贡献如下:

  • 调查发现 CLIP 在 ODA 问题上的 zero-shot 预测的性能;
  • 提出一种交叉熵优化策略用于 CLIP 预测,从而提高 ODA 模型在已知样本和未知样本上的分类能力;
  • 提出的方法不仅可以解决 ODA,也能用于 SF-ODA,在几个数据集上的表现很好。
    下图是这些方法的概念图(老实说这个图画的不太理解,而且文章中没有引用到这张图):

VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划

三、相关工作

VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划

3.1 开放域适应

  源域和目标域标签分别设为 C s C_s Cs C t C_t Ct,无监督域适应 UDA 中 C s = C t C_s=C_t Cs=Ct。在未知目标类别中, C s C_s Cs C t C_t Ct 的子集,于是 ODA 被提出用于解决这类类别不匹配的问题。
  解决 ODA 的一个方法是利用无监督自适应网络中源域和目标域样本的权重,使用源域标签数据最小化交叉熵损失来为每个类别训练出一个一对一的分类器。

3.2 源域无关的开放域适应

  在训练中,所有的 UDA 和 ODA 方法都需要源域和目标域样本的参与。然而对于无法提供源域标签的场景,或一些实时部署的场景,这样的方法显然不适用。于是有一些文献提出冻结源域的分类器模块,转而学习特定任务的特征提取器模块,例如 SHOT、USFDA、OneRing 来实现 SF-ODA。

3.3 视觉-语言基础模型 VLFM

  大尺度的预训练模型采用 Transformer 进行 CV 和 NLP 任务的攻坚,早期的工作之一是 GPT,同时期的 BERT,IGPT、MAE。
  最近大量的预训练技巧,包含对比学习、MLM、MRM 等都进一步推动了 VLFM 的发展。其中在大尺度图像-文本对中训练的 CLIP 模型表现出很强的泛化能力,并且能够检测到未知样本。
  在 ODA 和 SF-ODA 中, 通常的做法是使用 ImageNet 上预训练的权重来初始化模型。因为这些方法主要依赖于预训练模型的质量,类似 CLIP 这类的 VLFM 方法有很大的潜力来提升 ODA 和 SF-ODA 的性能,相反的是微调 VLFM 模型的成本很大。于是采用 CLIP 的 zero-shot 预测,提出一种轻量化的方式将 CLIP 应用于 ODA。

四、方法

VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划

4.1 问题陈述

  假设源域标签集合 { X s , Y s } \{X_s,Y_s\} {Xs,Ys},一个源域图像-标签对 { x s , y s } \{x_s,y_s\} {xs,ys},无标签目标图像集合 X t X_t Xt 中的一张无标签目标图像为 x t x_t xt C s C_s Cs C t C_t Ct 分别表示源域标签和样本标签图像。在 ODA 中,已知类别为源域数据,而某些未知类别存在于没有标签的源域和目标域中,即 C s ∈ C t C_s\in C_t CsCt,表示为 C t ~ = C t \ C s \widetilde{C_{t}}=C_{t}\backslash C_{s} Ct =Ct\Cs
  给定目标样本 x t x_t xt,ODA 旨在预测预测其标签 y t y_t yt 是否属于源域类别 C s C_s Cs 中的一个还是未知类别 C t ~ \widetilde{C_{t}} Ct 中的一个样本。在 SF-ODA 中,当训练 X t X_t Xt 时,其标签并并不提供,于是需要通过训练在 { X s , Y s } \{X_s,Y_s\} {Xs,Ys} 上的模型实现。
  最小批量的训练过程涉及到两种集合的数据,其中 D s = ( x s i , y s i ) i = 1 N D_{s}=\left(x_{s}^{i},y_{s}^{i}\right)_{i=1}^{N} Ds=(xsi,ysi)i=1N 表示尺寸为 N N N 的源自源域样本的迷你批量,而 D t = ( x t i ) i = 1 N D_{t}=\left(x_{t}^{i}\right)_{i=1}^{N} Dt=(xti)i=1N 表示尺寸为 N N N 的源自目标域域样本的迷你批量。

4.2采用 CLIP 的 Zero-shot 预测

  CLIP 由一个图像编码器 F c l i p F_{clip} Fclip 和一个语言模型 G c l i p G_{clip} Gclip 组成,其利用文本 prompt t t t 的 embedding 和图像特征的相似性来对图像分类。对于类别 prompt t k \boldsymbol{t}_k tk,通过计算 F c l i p ( x t i ) F_{clip}(x_t^i) Fclip(xti) G c l i p ( t k ) G_{clip}(\boldsymbol{t}_k) Gclip(tk) 的输出的余弦相似度:
y ^ i = arg ⁡ max ⁡ k ∈ C s F c l i p ( x t i ) ⋅ G c l i p ( t k ) \hat{y}^i=\arg\max_{k\in C_s}F_{clip}(x_t^i)\cdot G_{clip}(\boldsymbol{t}_k) y^i=argkCsmaxFclip(xti)Gclip(tk)其中 C s C_s Cs 为源域中的类别, ⋅ \cdot 表示余弦相似度。
  在 ODA 上进行 Zero-shot 评估时,同时冻结图像编码器和语言模型,然后在每个数据集中将文本 prompt t \boldsymbol{t} t 替代为 “A photo of a {label}”。
  在 ODA 中, 由于目标域中存在者未知样本,于是通过预测交叉熵来检测这些样本。首先,将余弦相似度转换为概率 p ^ \hat{p} p^
p ^ ( k ∣ x t i ) = exp ⁡ ( F c l i p ( x t i ) ⋅ G c l i p ( t k ) / τ ) ∑ k = 1 K exp ⁡ ( F c l i p ( x t i ) ⋅ G c l i p ( t k ) / τ ) \hat{p}(k|x_t^i)=\frac{\exp(F_{clip}(x_t^i)\cdot G_{clip}(t_k)/\tau)}{\sum_{k=1}^K\exp(F_{clip}(x_t^i)\cdot G_{clip}(t_k)/\tau)} p^(kxti)=k=1Kexp(Fclip(xti)Gclip(tk)/τ)exp(Fclip(xti)Gclip(tk)/τ)其中 p ^ ( k ∣ x t i ) \hat{p}(k|x_t^i) p^(kxti) 表示样本 x t i x_t^i xti 属于类别 k k k 的概率, τ = 0.01 \tau=0.01 τ=0.01 控制着分布的集中程度。
  之后计算 p ^ \hat p p^ 的交叉熵 H ( p ^ ) \mathcal{H}(\hat p) H(p^),当一个目标样本 x t i x_t^i xti H ( p ^ ) \mathcal{H}(\hat p) H(p^) 大于某一阈值 δ {\delta} δ 时,则为未知样本(在所有已知类别上的预测概率很低)。对于另一些有着很小交叉熵的已知样本,将由文中的第一个公式来预测其类别。

4.3 ODA 模型准备

  首先准备一个简单模型 F o l d F_{old} Fold,来区分源域样本,包含一个特征提取器和分类器,输出一个概率向量 F o d a ( x i ) ∈ R ∣ C s ∣ F_{oda}(x^i)\in\mathbb{R}^{|C_s|} Foda(xi)RCs。采用标注的交叉熵损失和有标签的源域数据来优化:
L s ( D s ) = − 1 N ∑ i = 1 N ∑ k = 1 ∣ C s ∣ y s i k log ⁡ p ( k ∣ x s i ) \mathcal{L}_s(D_s)=-\frac1N\sum_{i=1}^N\sum_{k=1}^{|C_s|}y_s^{ik}\log p(k|x_s^i) Ls(Ds)=N1i=1Nk=1Csysiklogp(kxsi)其中 p ( k ∣ x s i ) p(k|x_s^i) p(kxsi) 为样本 x s i x_s^i xsi 预测为类别 k k k 的概率,这是 F o d a ( x s i ) F_{oda}(x_s^i) Foda(xsi) 的第 k k k 个输出, y s i k y_s^{ik} ysik 表示样本是否属于类别 k k k 的二值化标签。

4.4 带有 CLIP 的交叉熵优化

4.4.1 交叉分离的域适应

  为使得 ODA 模型 F o d a F_{oda} Foda 适应目标域,应用交叉分离损失到目标样本上:
L e n t ( D t ) = 1 N ∑ i = 1 N L ~ e n t ( D t ) \mathcal{L}_{ent}(D_t)=\frac1N\sum_{i=1}^N\tilde{\mathcal{L}}_{ent}(D_t) Lent(Dt)=N1i=1NL~ent(Dt)
L ~ e n t ( D t ) = { − ∣ H ( p ) − δ ∣ i f   ∣ H ( p ) − δ ∣ > m 0 o t h e r w i s e \tilde{\mathcal{L}}_{ent}(D_t)=\begin{cases}-|\mathcal{H}(p)-\delta|&\mathrm{if~}|\mathcal{H}(p)-\delta|>m\\0&\mathrm{otherwise}&\end{cases} L~ent(Dt)={H(p)δ0if H(p)δ>motherwise其中 H ( p ) \mathcal{H}(p) H(p) p ( x t i ) p(x_t^i) p(xti) 的交叉熵, δ \delta δ 表示阈值, m m m 为分离的边界。 δ \delta δ 设为 log ⁡ ( ∣ C s ∣ ) 2 \frac{\log(|C_s|)}2 2log(Cs) ,因为 log ⁡ ( ∣ C s ∣ ) \log(|C_s|) log(Cs) H \mathcal{H} H 的最大值。当交叉熵大于阈值,且不在边界区域内,即 H ( p ) > δ + m   ( o r   H ( p ) − δ > m ) \mathcal{H}(p)>\delta+m\mathrm{~(or~}\mathcal{H}(p)-\delta>m) H(p)>δ+m (or H(p)δ>m) 时,此样本视为一个未知样本且交叉熵会通过最小化损失来增加。反之,当 H ( p ) < δ − m  (or  H ( p ) − δ < − m ) \mathcal{H}(p)<\delta-m\text{ (or }\mathcal{H}(p)-\delta<-m) H(p)<δm (or H(p)δ<m) 时,交叉熵足够小,此样本视为已知样本,其交叉熵将会减小。

4.4.2 CLIP 引导的域适应

  为提高 ODA 的性能,额外使用 CLIP 的 zert-shot 预测来训练 F o d a F_{oda} Foda,根据 CLIP 的预测 H ( p ^ ) \mathcal{H}(\hat p) H(p^) 检测出未知样本。将检测出的目标位置样本表示为 D ^ t u n k \hat{D}_{t}^{unk} D^tunk,在 D t D_t Dt 中, H ( p ^ ) > δ \mathcal{H}(\hat p)>\delta H(p^)>δ;剩下的已知样本为 D ^ t k w n \hat{D}_{t}^{kwn} D^tkwn,其中 H ( p ^ ) < = δ \mathcal{H}(\hat p)<=\delta H(p^)<=δ
  对于目标已知样本 D ^ t k w n \hat{D}_{t}^{kwn} D^tkwn,直接使用 CLIP 的 zero-shot 预测作为伪标签来训练 F o d a F_{oda} Foda
L k w n ( D ^ t k w n ) = − 1 ∣ D ^ t k w n ∣ ∑ i = 1 ∣ D ^ t k w n ∣ ∑ k = 1 ∣ C s ∣ p ^ ( k ∣ x t i ) log ⁡ p ( k ∣ x t i ) \mathcal{L}_{kwn}(\hat{D}_{t}^{kwn})=-\frac1{|\hat{D}_{t}^{kwn}|}\sum_{i=1}^{|\hat{D}_{t}^{kwn}|}\sum_{k=1}^{|C_{s}|}\hat{p}(k|x_{t}^{i})\log p(k|x_{t}^{i}) Lkwn(D^tkwn)=D^tkwn1i=1D^tkwnk=1Csp^(kxti)logp(kxti)
  对于目标未知样本 D ^ t u n k \hat{D}_{t}^{unk} D^tunk,增加其输出的交叉熵:
L u n k ( D ^ t u n k ) = 1 ∣ D ^ t u n k ∣ ∑ i = 1 ∣ D ^ t u n k ∣ − H ( p ^ ) \mathcal{L}_{unk}(\hat{D}_t^{unk})=\frac1{|\hat{D}_t^{unk}|}\sum_{i=1}^{|\hat{D}_t^{unk}|}-\mathcal{H}(\hat{p}) Lunk(D^tunk)=D^tunk1i=1D^tunkH(p^)

4.5 整体目标函数

  总结:交叉熵优化框架执行的是源域样本监督训练,目标样本的交叉分离,CLIP 引导的域适应,ODA 的整体学习目标为:
min ⁡ F o d a L t o t a l = L s ( D s ) + L e n t ( D t ) + L k w n ( D ^ t k w n ) + L u n k ( D ^ t u n k ) \operatorname*{min}_{F_{oda}}\mathcal{L}_{total}=\mathcal{L}_s(D_s)+\mathcal{L}_{ent}(D_t) +\mathcal{L}_{kwn}(\hat{D}_{t}^{kwn})+\mathcal{L}_{unk}(\hat{D}_{t}^{unk}) FodaminLtotal=Ls(Ds)+Lent(Dt)+Lkwn(D^tkwn)+Lunk(D^tunk)
  对于 SF-ODA,由于 D s D_s Ds D t D_t Dt 在训练过程中并不能获得,于是用预训练在源域 D s D_s Ds 上的 ODA 模型 F o d a F_{oda} Foda 代替,采用标准监督分类器的学习方式训练:
min ⁡ F o d a L p r e t r a i n = L s ( D s ) \min_{F_{oda}}\mathcal{L}_{pretrain}=\mathcal{L}_{s}(D_{s}) FodaminLpretrain=Ls(Ds)接下来进一步训练交叉分离和 CLIP 引导的 D t D_t Dt 上的域适应:
min ⁡ F o d a L t o t a l = L e n t ( D t ) + L k w n ( D ^ t k w n ) + L u n k ( D ^ t u n k ) \min_{F_{oda}}\mathcal{L}_{total}=\mathcal{L}_{ent}(D_t)+\mathcal{L}_{kwn}(\hat{D}_t^{kwn})+\mathcal{L}_{unk}(\hat{D}_t^{unk}) FodaminLtotal=Lent(Dt)+Lkwn(D^tkwn)+Lunk(D^tunk)

五、实验

5.1 实验步骤

5.1.1 数据集

VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划

5.1.2 与其他方法的比较

  两个 baseline:CLIP 的 zero-shot 预测;仅标签源域和基于交叉熵检测到的未知类别训练的模型。两个 ODA 方法:DANCE、OVA。两个 SF-ODA 方法:SHOT、OneRing。

5.1.3 评估附件

  使用 H-score 指标,当未知类别被认为是一个统一的标签时,H-score 得分为已知类别 a c c k w n \mathrm{acc}_{kwn} acckwn 和 统一的未知类别 a c c u n k \mathrm{acc}_{unk} accunk 的调和平均数:
H s c o r e = 2 a c c k w n ⋅ a c c u n k a c c k w n + a c c u n k H_{score}=\frac{2\mathrm{acc}_{kwn}\cdot\mathrm{acc}_{unk}}{\mathrm{acc}_{kwn}+\mathrm{acc}_{unk}} Hscore=acckwn+accunk2acckwnaccunk当且仅当 a c c k w n \mathrm{acc}_{kwn} acckwn a c c u n k \mathrm{acc}_{unk} accunk 非常大时,H-score 才大。在所有实验中采用不同的随机种子进行实验。

5.1.4 实施细节

  预训练在 Image-Net 上的 ResNet-50 作为 ODA 模型 F o d a F_{oda} Foda,交叉熵阈值设置为 log ⁡ ( ∣ C s ∣ ) 2 \frac{\log(|C_s|)}2 2log(Cs),分离的边界值 m = 0.5 m=0.5 m=0.5

5.2 实验结果

主要结果

VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划

CLIP 的 zero-shot 和提出方法的比较

VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划
VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划
VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划

每个数据集的细节结果

VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划
VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划

5.3 消融实验

VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记,多模态研究,未完待续,原力计划

六、局限性及将来的工作

  微调 CLIP 值得考虑,但计算成本需要关注,同时需要关注微调模型会使得过拟合源域的数据。引入更加复杂模型应用于 ODA 任务留待将来的工作。

七、结论

  本文提出用 CLIP 来增强 ODA 的性能。为解决知识在不同类别中的迁移,使用 CLIP 模型的 zero-shot 预测能力来增强 ODA 模型的性能。实验表明方法很有效,超出了当前的 ODA 和 SF-ODA 的 SOTA 方法。

写在后面

  这篇文章还是有点看不懂的感觉,虽然公式较少,但代码没有给出,略微有点遗憾。值得称赞的是论文的写作水平比较高明,外行读者也能看懂。有些瑕疵的地方在于摘要部分衔接不够流程,还有论文的图 1 并未在原文中引用到。文章来源地址https://www.toymoban.com/news/detail-629820.html

到了这里,关于VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 论文阅读笔记的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [论文解析] Diffusion Guided Domain Adaptation of Image Generators

    project link: https://styleganfusion.github.io/ In this paper, we show that the classifier-free guidance can be leveraged as a critic and enable generators to distill knowledge from large-scale text-to-image diffusion models. Generators can be efficiently shifted into new domains indicated by text prompts without access to groundtruth samples from target dom

    2024年02月16日
    浏览(31)
  • LLMs领域适应的预训练Pre-training for domain adaptation

    到目前为止,我强调了在开发应用程序时,您通常会使用现有的LLM。这为您节省了大量时间,并可以更快地得到一个工作原型。 但是,有一种情况下,您可能会发现有必要从头开始预训练自己的模型。如果您的目标领域使用的词汇和语言结构在日常语言中并不常用,您可能需

    2024年02月11日
    浏览(29)
  • 迁移学习(CLDA)《CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation》

    Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ] 论文标题:CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation 论文作者:Ankit Singh 论文来源:NeurIPS 2021 论文地址:download  论文代码:download 视屏讲解:click 动机 :半监督导致来自标记源和目标样本的监督只能确保部分跨域特征对

    2023年04月17日
    浏览(29)
  • 【AIGC】阿里达摩院:文本生成视频大模型-通用领域 (Text-to-video-synthesis Model in Open Domain)

    说实话,这篇破文章没什么营养,就是记录一下 阿里达摩院的文章水平。 :多模态 text2video generation diffusion model 文到视频 文生视频 文本生成视频  目录 文本生成视频大模型-通用领域 (Text-to-video-synthesis Model in Open Domain) 模型描述 (Model Description)

    2023年04月09日
    浏览(36)
  • Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读

    域偏移是临床应用中的常见问题,其中训练图像(源域)和测试图像(目标域)处于不同的分布下。已经提出了无监督域适应 (UDA) 技术,以使在源域中训练的模型适应目标域。但是,这些方法需要来自目标域的大量图像进行模型训练。 本文提出了一种新的少样本无监督域

    2024年04月28日
    浏览(30)
  • 迁移学习《Cluster-Guided Semi-Supervised Domain Adaptation for Imbalanced Medical Image Classification》

    论文标题:Cluster-Guided Semi-Supervised Domain Adaptation for Imbalanced Medical Image Classification 论文作者:S. Harada, Ryoma Bise, Kengo Araki 论文来源:ArXiv 2 March 2023 论文地址:download  论文代码:download 视屏讲解:click 一种半监督域自适应方法,对医学图像分类任务中常见的类不平衡情况具有

    2023年04月11日
    浏览(34)
  • 迁移学习(SPI)《Semi-Supervised Domain Adaptation by Similarity based Pseudo-label Injection》

    论文标题:Semi-Supervised Domain Adaptation by Similarity based Pseudo-label Injection 论文作者:Abhay Rawat , Isha Dua , Saurav Gupta , Rahul Tallamraju  论文来源:Published in ECCV Workshops 5 September 2022 论文地址:download  论文代码:download 视屏讲解:click 挑战:半监督域适应 (SSDA) 的主要挑战之一是标

    2023年04月08日
    浏览(38)
  • VL系列 Exchanging-based Multimodal Fusion with Transformer 论文阅读笔记

    写在前面   又是一个周末 教师节,祝老师们节日快乐呀。依惯例,论文读起来~   这是一篇多模态融合的文章,也算是这些年新出的一种方式了,具体还不知道啥情况,代码已开源,一试便知。 论文地址:Exchanging-based Multimodal Fusion with Transformer 代码地址:https://github.

    2024年02月05日
    浏览(45)
  • Evolving with AR9582: MFC900M - A Legacy of Connectivity and Adaptation

    In the ever-evolving landscape of technology, some products stand the test of time. Today, we celebrate the MFC900M, a testament to our enduring commitment to innovation and unwavering focus on adaptability. Although its features may be considered vintage, the true star of this product is our dedication to staying at the forefront of technological advancemen

    2024年02月05日
    浏览(38)
  • 大模型学习笔记07——大模型之Adaptation

    使用语言模型在学习了上下文后,仅通过给出的提示就能够执行一些任务 并不是所有的下游任务都可以通过提示方法完成,如: 自然语言推理(NLI) 问答(QA) 网络表格转文本 解析电子健康记录(EHR) 等 下游任务与语言模型的训练数据之间存在的问题 可能在格式和主题上

    2024年01月21日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包