相关文章推荐
飞奔的杯子  ·  npm ERR! code ...·  1 年前    · 
大力的砖头  ·  汇编 ...·  1 年前    · 
本文提出了一种名为PMTrans的模型,通过博弈论视角解决域适应问题。它使用PatchMix模块创建中间域,结合源域和目标域的patches,并利用半监督Mixup损失进行对齐。该方法在多个UDA基准数据集上展示了优越性能。 摘要由CSDN通过智能技术生成

1.motivation

最近,很多工作致力于利用视觉转换器(ViT)来完成具有挑战性的无监督域适应(UDA)任务。它们通常采用ViT中的Cross Attention进行直接的域对齐(CDTrans)。然而,由于Cross Attention的性能高度依赖于目标样本的伪标签质量,当域间隙较大时,域对齐的效果就会降低。

为了解决这一问题,本文从博弈的角度,提出了一个被称为PMTrans的模型,用一个中间域(使用源域patches和目标域patches通过线性插值组成)连接了源域和目标域,并且通过一个新提出的PatchMix模块和特征提取器(ViT)、分类器进行Min-Max博弈来对齐中间域和源域/目标域。

2.Method:PatchMix

PMTrans将UDA的过程解释为具有三个参与者的Min-Max CE(交叉熵)博弈,包括特征提取器,分类器和PatchMix。PatchMix模块通过学习使用基于博弈论模型的可学习beta分布生成的权重对两个域的patch进行采样,来有效地建立中间域,即概率分布。

PatchMix试图最大化中间域和源/目标域之间的CE,而特征提取器和分类器试图最小化CE来对齐域,一直达到参数稳定的均衡状态。如果混合来自两个域的混合patch表示等同于混合相应的标签,那么源域和目标域是对齐的。因此,最小化混合patch和混合标签之间的CE可以有效地促进域对齐。

2.1 PatchMix

PatchMix模块通过线性插值将源域和目标域的patches组合形成中间域的patches:

x_{k}^{i} 表示由源域第k个patch和目标域第k个patch线性组成的中间域的第k个patch。其中 \lambda _{k} ∈[0,1] 随机采样自

【域适应十三】2023-CVPR Patch-Mix Transformer for Unsupervised Domain Adaptation: A GamePerspective 最近,很多工作致力于利用视觉转换器(ViT)来完成具有挑战性的无监督域适应(UDA)任务。它们通常采用ViT中的Cross Attention进行直接的域对齐(CDTrans)。然而,由于Cross Attention的性能高度依赖于目标样本的伪标签质量,当域间隙较大时,域对齐的效果就会降低。
2023 - CVPR - Patch - Mix Transform er for Un super vis ed Dom ain Ada pta t ion : A Game Perspective
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入 欢迎使用Markdown编辑器 你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar
前置内容:Cross Attent ion Transform er 的解码器部分) 自注意力的计算回顾关于自注意力机制的思考; key-value注意力的计算为:Attent ion (Q,K,V)=softmax(QKTdk)VAttent ion (Q,K,V)=softmax(\frac{QK^{T}}{\sqrt{d_{k}}})VAttent ion (Q,K,V)=softmax(dk​​QKT​)V 交叉注意力和自注意力均来自 Transform er ,除了输入,交叉注意力的计算与自注意力一样。交叉注意力不对称.
本文使用了传统的注意力机制学习关注给定语义上下文的图像区 。文章的最终目标是将单词和图像区 映射到一个共同的嵌入空间,以推断整个图像和完整句子之间的相似性。 重点是如何应用Stack ed Cross Attent ion 对齐图像区 和单词特征。 文章分为图像-文本匹配和文本图像匹配,之所以不同是因为文章的题目,堆叠交叉注意。。哈哈哈 之所以不同,要从模型的思想说起。
CVPR 2019中发表了一篇题为“迁移学习:无监督领 适应 的对比 适应 网络(Contrastive Ada pta t ion Network for Un super vis ed Dom ain Ada pta t ion )”的论文。这篇论文主要介绍了一种用于无监督领 适应 的对比 适应 网络。 迁移学习是指将从一个源领 学到的知识应用到一个目标领 的任务中。在无监督领 适应 中,源领 和目标领 的标签信息是不可用的,因此算法需要通过从源领 到目标领 的无监督样本对齐来实现知识迁移。 该论文提出的对比 适应 网络(Contrastive Ada pta t ion Network,CAN)的目标是通过优化源领 上的特征表示,使其能够 适应 目标领 的特征分布。CAN的关键思想是通过对比损失来对源领 和目标领 的特征进行匹配。 具体地说,CAN首先通过一个共享的特征提取器来提取源领 和目标领 的特征表示。然后,通过对比损失函数来测量源领 和目标领 的特征之间的差异。对比损失函数的目标是使源领 和目标领 的特征在特定的度量空间中更加接近。最后,CAN通过最小化对比损失来优化特征提取器,以使源领 的特征能够 适应 目标领 。 该论文还对CAN进行了实验验证。实验结果表明,与其他无监督领 适应 方法相比,CAN在多个图像分类任务上取得了更好的性能,证明了其有效性和优越性。 综上所述,这篇 CVPR 2019论文介绍了一种用于无监督领 适应 的对比 适应 网络,通过对源领 和目标领 的特征进行对比学习,使得源领 的特征能够 适应 目标领 。该方法在实验中展现了较好的性能,有望在无监督领 适应 任务中发挥重要作用。
【最优传输二十六】2023 CVPR COT: Unsupervised Domain Adaptation with Clustering and Optimal Transport 羊驼不驼a: 这个代码还没有开源 【最优传输二十六】2023 CVPR COT: Unsupervised Domain Adaptation with Clustering and Optimal Transport 闯闯的宝贝: 请问代码在哪里找呢