自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(60)
  • 收藏
  • 关注

原创 【可见光遥感四】Unifying Top–Down Views by Task-SpecificDomain Adaptation

在本文中,我们的目标是通过探索卫星/空中/地面视图的潜在相关性来学习图像的统一表示。受领域自适应(DA)最新进展的启发,我们为此提出了一种新的特定任务的DA方法。与传统的DA方法不同的是,该方法不仅应用了特定于任务的分类器,而且在自适应过程中针对不同的领域引入了特定于领域的任务。实验在两个新提出的地面/卫星到空中场景适应(GSSA)数据集上进行。由于地面/卫星场景与航空场景之间的语义差距远大于地面场景之间的语义差距,因此这些场景之间的数据处理任务比传统的数据处理任务更具挑战性。

2024-05-20 22:06:58 808

原创 【最优传输二十九】Wasserstein Barycenterand Its Application to Texture Mixing

本文提出了离散概率分布的平均作为Monge-Kantorovich最优传输空间重心的新定义。为了克服数值求解这类问题所涉及的时间复杂性,原始的Wasserstein度量被一维分布上的切片近似所取代。这使我们能够引入一种新的快速梯度下降算法来计算点云的Wasserstein质心。这个概率重心的新概念可能会在计算机视觉中找到应用,在那里人们想要平均定义为分布的特征。我们展示了纹理合成和混合的应用,其中纹理的特征是对多尺度定向滤波器组的响应分布。这就提供了一种简单的方法来导航颜色纹理的凸域。

2024-05-09 14:30:23 783

原创 在远程服务器上安装anaconda以及配置pytorch虚拟环境

installation finished显示安装完成,接下来会提示是否添加环境变量,输入yes,否则还得自己配环境变量。重新打开终端即可,可以输入conda或者python来测试是否安装成功。3.进入到.sh文件所在目录,bash + 下载的.sh文件名。点击左下角可以查看之前的版本,直接在终端输入相应命令即可。1.可以选择将.sh文件下载到本地再上传到服务器。一直按Enter继续,接受许可条款。

2024-04-29 15:32:27 482

原创 【域适应十九】CDTRANS: CROSS-DOMAIN TRANSFORMER FOR UN-SUPERVISED DOMAIN ADAPTATION

无监督域自适应旨在将学习到的知识从一个有标记的源领域转移到另一个无标记的目标领域。大多数现有的UDA方法都是使用基于卷积神经网络(cnn)的框架,从领域层面或类别层面学习域不变特征表示。基于类别级别的UDA的一个基本问题是为目标域中的样本产生伪标签,这些伪标签通常过于嘈杂,无法进行准确的域对齐,不可避免地影响了UDA的性能。随着Transformer在各种任务中的成功,我们发现Transformer中的交叉注意对噪声输入对具有鲁棒性,可以更好地进行特征对准,因此本文将Transformer用于具有挑战性的U

2024-04-26 13:17:43 837

原创 【域适应十八】Making the Best of Both Worlds: A Domain-OrientedTransformer for Unsupervised Domain Adaptat

大多数UDA方法在公共嵌入空间内对齐特征,并应用共享分类器进行目标预测。然而,由于当域差异较大时,可能不存在完美对齐的特征空间,因此这些方法存在两个局限性。首先,由于缺乏目标标签监督,强制领域对齐会降低目标领域的可辨别性。其次,源监督分类器不可避免地会偏向源数据,从而在目标域表现不佳。为了缓解这些问题,本文提出在两个专注于不同领域的单独空间中同时进行特征对齐,并为每个空间创建专门针对该领域的面向领域的分类器。

2024-04-20 16:48:25 1009

原创 【prompt八】What does a platypus look like?Generating customized prompts for zero-shot image classific

为了清楚起见,我们区分了两种不同的提示。第一个是提示LLM生成数据集类别描述的提示。这些提示不是描述一个对象,而是提示对一个对象的描述(例如,“鸭嘴兽长什么样?”)。我们将这些称为“LLM提示”。其次,在zero-shot图像分类模型中,有需要与图像匹配的提示。这些提示描述了一个类别(例如,“鸭嘴兽看起来像……”)。我们称之为“图像提示”。在CuPL中,这些是LLM的输出,如图2所示。图2。使用实例CuPL LLM-prompts和Image-prompts。

2024-04-11 16:01:10 549

原创 【prompt七】Learning Hierarchical Prompt with Structured Linguistic Knowledge for Vision-Language Model

提示学习已经成为使视觉语言基础模型适应下游任务的一种流行策略。随着大型语言模型(llm)的出现,最近的研究探索了使用与类别相关的描述作为输入来提高提示有效性。然而,传统的描述缺乏有效地表示与特定类别相关联的实体或属性之间的相互联系的结构化信息。为了解决这一限制并优先利用结构化知识,本文提倡利用llm为每个描述构建一个图,以建模描述类别的实体和属性,以及它们之间的相关性。先前存在的提示调优方法在管理这种结构化知识方面表现出不足。

2024-04-10 15:07:14 945

原创 【域适应+clip十七】Split to Merge: Unifying Separated Modalities for Unsupervised Domain Adaptation

大型视觉语言模型(VLMs)在无监督域自适应任务中表现出良好的zero-shot学习性能。然而,大多数针对vlm的迁移方法要么关注语言分支,要么关注视觉分支,而忽略了这两种模式之间微妙的相互作用。在这项工作中,作者引入了一个用于无监督域自适应的统一模态分离(UniMoS)框架。利用模态间隙研究的见解,我们制作了一个灵活的模态分离网络,将CLIP的特征明显地分解为语言相关和视觉相关的组件。作者提出的模态集成训练(MET)方法促进了模态无关信息的交换,同时保持了模态特定的细微差别。使用模态鉴别器跨域对齐特征。

2024-03-30 16:59:51 734

原创 【prompt六】MaPLe: Multi-modal Prompt Learning

最近的CLIP适应方法学习提示作为文本输入,以微调下游任务的CLIP。使用提示来适应CLIP(语言或视觉)的单个分支中的表示是次优的,因为它不允许在下游任务上动态调整两个表示空间的灵活性。在这项工作中,我们提出了针对视觉和语言分支的多模态提示学习(MaPLe),以改善视觉和语言表征之间的一致性。促进了视觉语言提示之间的强耦合,以确保相互协同,并阻止学习独立的单模态解决方案。此外,在不同的早期阶段学习单独的提示,逐步对阶段特征关系建模,以允许丰富的上下文学习。

2024-03-23 17:22:24 1378

原创 【prompt五】CoCoOP:Conditional Prompt Learning for Vision-Language Models

随着像CLIP这样强大的预训练视觉语言模型的兴起,研究如何使这些模型适应下游数据集变得至关重要。最近提出的一种名为上下文优化(CoOp)的方法将提示学习(nlp的最新趋势)的概念引入视觉领域,以适应预训练的视觉语言模型。具体来说,CoOp将提示中的上下文单词转换为一组可学习的向量,并且仅使用少量标记的图像进行学习,可以实现比密集调整的手动提示的巨大改进。在我们的研究中发现了CoOp的一个关键问题:学习到的上下文不能推广到同一数据集中更广泛的未见类,这表明CoOp过拟合了训练期间观察到的基本类。

2024-03-05 20:27:56 1145

原创 【prompt四】Domain Prompt Learning for Efficiently Adapting CLIP to Unseen Domains

领域泛化(DG)是一个复杂的迁移学习问题,旨在学习未知领域的可泛化模型。最近的基础模型(FMs)对许多分布变化都具有鲁棒性,因此,应该从本质上提高DG的性能。在这项工作中,我们研究了采用视觉语言基础模型CLIP来解决图像分类中的DG问题的通用方法。虽然ERM使用标准DG基准极大地提高了更大的主干和训练数据集的准确性,但在许多实际情况下,微调fm是不切实际的。我们提出了DPL(领域提示学习)作为一种以条件提示生成形式进行领域推理的新方法。

2024-03-05 18:22:34 1292

原创 【可见光遥感三+域适应十六】Domain Adaptive Remote Sensing Scene Recognition via Semantic Relationship Knowledge

论文:Domain Adaptive Remote Sensing Scene Recognition via Semantic Relationship。

2024-02-17 14:57:02 954

原创 【域适应十五】Universal Domain Adaptation through Self-Supervision

传统的无监督域自适应方法假设所有源类别都存在于目标域中。在实践中,对于这两个领域之间的类别重叠可能知之甚少。虽然有些方法使用部分或开放集类别处理目标设置,但它们假设特定设置是已知的先验设置。本文提出了一个更普遍适用的领域自适应框架,可以处理任意类别的转移,称为通过熵优化的领域自适应邻域聚类(DANCE)。DANCE结合了两个新颖的思想:首先,由于不能完全依赖源分类来判别目标的特征,因此提出了一种新的邻域聚类技术,以自监督的方式学习目标域的结构。

2024-02-01 20:08:02 1000 1

原创 【域适应+clip十四】Open-Set Domain Adaptation with Visual-Language Foundation Models

无监督域自适应(UDA)是一种非常有效的方法,可以将具有标记数据的源域知识转移到具有未标记数据的目标域。由于目标域中缺乏标记数据以及可能存在未知类,开放集域适应(open-set domain adaptation, ODA)已成为在训练阶段识别这些类的潜在解决方案。虽然现有的ODA方法旨在解决源域和目标域之间的分布变化,但大多数方法在源域上对ImageNet预训练模型进行微调,并在目标域上进行自适应。

2024-02-01 16:38:06 1063

原创 【可见光遥感二】Domain Adaptation via a Task-Specific ClassifierFramework for Remote SensingCross-Scene Cl

论文:Domain Adaptation via a Task-Specific Classifier Framework for Remote Sensing Cross-Scene Classification。

2024-01-23 20:35:38 1004

原创 【可见光遥感+prompt一】Rethinking Remote Sensing Pretrained Model:Instance-Aware Visual Prompting for Remot

首先使用Meta-Net在每个transformer编码器层生成特定于示例的提示令牌。最后,类令牌、输入上下文令牌和提示令牌作为输入连接到冻结的transformer层。在下游分类任务的训练中,只更mate网和线性头部的参数,而整个transformer编码器保持冻结状态。图2显示了所提出模型的具体架构。给定一个预训练的ViT模型,在嵌入层后的输入空间中引入M个维数为d的连续嵌入,即提示符。如上所述,提出的IVP算法试图学习实例感知的视觉提示,以微调预训练的RS模型,以更好地进行下游任务迁移。

2024-01-13 22:03:53 919

原创 【prompt一】Domain Adaptation via Prompt Learning

当前的UDA方法通过对齐源和目标特征空间来学习域不变特征。这种对齐是由诸如统计差异最小化或对抗性训练等约束施加的。然而,这些约束可能导致语义特征结构的扭曲和类可辨别性的丧失。在本文中,引入了一种新的UDA提示学习范式,即通过提示学习进行领域适应(DAPL)。使用了预训练的视觉语言模型,并且只优化了很少的参数。主要思想是将领域信息嵌入到提示中,这是一种由自然语言生成的表示形式,然后用于执行分类。该域信息仅由来自同一域的图像共享,从而根据每个域动态调整分类器。

2023-12-23 13:51:00 1872 1

原创 【高光谱一】2022 TGRS Confident Learning-Based Domain Adaptation for Hyperspectral Image Classification

本文采用了双分类器对抗域自适应和置信学习。在域自适应中,双分类器(C1和C2)输出两个概率向量p1和p2 (p1, p2∈RK ×1)来优化损失函数并更新神经网络,其中K为类别数。特征融合分类以双分类器的最后一层特征(在softmax之前)作为输入,选取两个特征之和的最大元素作为伪标签[44]。由此得到所有目标实例的伪标签。置信学习用于去除标记数据集上的噪声数据,并保留干净的数据用于模型训练。在置信学习中,采用SVM分类器估计预测概率,。因此,每个目标样本都有一个伪标签和一个预测概率。

2023-12-09 23:20:27 995

原创 【最优传输二十八】Reusing the Task-specific Classifier as a Discriminator:Discriminator-free Adversarial Dom

现有的对抗性UDA方法通常采用额外的鉴别器来与特征提取器进行最小-最大博弈。然而,这些方法大多未能有效利用预测的判别信息,从而导致生成器的模式崩溃。为了解决这个问题,本文设计了一个简单而有效的对抗性范式,即无鉴别器的对抗性学习网络(DALN),其中类别分类器被重新用作鉴别器,通过统一的目标实现显式的领域对齐和类别区分,使得DALN能够利用预测的判别信息来进行充分的特征对准。本文引入了一个Nuclear-norm Wasserstein discrepancy (NWD),它对执行判别具有明确的指导意义。

2023-11-21 16:28:40 263

原创 【域适应十三】2023-CVPR Patch-Mix Transformer for Unsupervised Domain Adaptation: A GamePerspective

最近,很多工作致力于利用视觉转换器(ViT)来完成具有挑战性的无监督域适应(UDA)任务。它们通常采用ViT中的Cross Attention进行直接的域对齐(CDTrans)。然而,由于Cross Attention的性能高度依赖于目标样本的伪标签质量,当域间隙较大时,域对齐的效果就会降低。

2023-11-20 15:39:36 455

原创 【域适应十二】2020 CVPR Unsupervised Domain Adaptation via Structurally Regularized Deep Clustering

主流的UDA方法学习两个领域之间的对齐特征,这样在源特征上训练的分类器就可以很容易地应用于目标特征。然而,这种转移策略有可能破坏目标数据的内在区别。为了减轻这种风险,基于结构域相似性的假设,提出通过对目标数据的判别聚类来直接揭示内在的目标判别。使用取决于假设的结构域相似性的结构源正则化来约束聚类解。从技术上讲,使用了一个灵活的基于深度网络的判别聚类框架,该框架最小化了网络的预测标签分布和引入的辅助标签分布之间的KL差异;

2023-11-13 11:19:45 131

原创 【最优传输二十七】2020 CVPR Reliable Weighted Optimal Transport for Unsupervised Domain Adaptation

现有的大多数基于最优传输的工作忽略了域内结构,只实现了粗略的成对匹配。分布在聚类边缘附近或远离其对应类中心的目标样本很容易被从源域学习的决策边界错误分类。在本文中,提出了用于无监督领域自适应的可靠加权最优传输(RWOT),包括新的收缩子空间可靠性(SSR)和加权最优传输策略。具体而言,SSR利用空间原型信息和域内结构来动态测量跨域的样本级域差异。此外,利用基于SSR的加权最优传输策略来实现精确的成对最优传输过程,减少了目标域中决策边界附近样本带来的负迁移。RWOT还配备了判别质心聚类利用策略来学习迁移特征。

2023-11-03 20:06:14 141

原创 【域适应十一】Deep Subdomain Adaptation Network for Image Classification(DSAN)(2021 IEEE Trans)

以前的深域自适应方法主要学习全局域偏移,导致在没有捕获细粒度信息的情况下迁移学习性能不令人满意。近年来,越来越多的研究人员关注子域自适应,其重点是准确对齐相关子域的分布。然而,它们大多是对抗性方法,包含几个损失函数,收敛缓慢。基于此,本文提出了一种深层子域自适应网络(DSAN),该网络通过基于局部最大均值差异(LMMD)在不同域之间对齐域特定层激活的相关子域分布来学习转移网络,不需要对抗性训练,收敛速度快。

2023-11-02 20:36:59 415

原创 【域适应十】2022 CVPR Slimmable Domain Adaptation

无监督领域自适应方法倾向于使用固定的神经结构来优化模型,这在现实世界中不是很实用,因为目标数据通常由不同的资源有限的设备处理。因此,促进跨各种设备的架构适配是非常必要的。在本文中,引入了一个简单的框架,即Slimmable Domain Adaptation,以通过权重共享模型库来改进跨域泛化,从中可以对不同容量的模型进行采样,以适应不同的精度和效率权衡。该框架中的主要挑战在于同时提高模型库中众多模型的自适应性能。

2023-10-22 21:38:25 181

原创 【最优传输二十六】2023 CVPR COT: Unsupervised Domain Adaptation with Clustering and Optimal Transport

最近的研究人员进一步指出了局部水平对齐的重要性,并提出利用最优传输(OT)理论构建实例对对齐。然而,现有的基于OT的UDA方法仅限于处理类不平衡挑战,并且在考虑大规模训练情况时引入了繁重的计算开销。为了解决上述两个问题,本文提出了一种基于聚类的最优传输(COT)算法,该算法将对齐过程公式化为最优传输问题,并通过端到端的方式构建源域和目标域中聚类中心之间的映射。通过对聚类中心进行这种对齐,COT算法消除了类不平衡造成的负面影响,同时降低了计算成本,并在几个权威的基准数据集上实现了最先进的性能。

2023-10-18 22:02:33 339 2

原创 SymNets网络

SymNets模型在对齐源域和目标域的边缘分布的同时也增强了对两个域中条件分布的对齐,从而实现类别层级的对齐。​​在SymNets网络中,分类器C有两个并行的任务分类器和,它们都拥有K个神经元对应类别数,此外,本文还设计了一个与和共享神经元的分类器,它拥有2K个神经元。(PS:其实就是一个拥有2K个神经元的分类器模型同时干了三件事情)。symNet网络没有一个明确的域辨别器,域鉴别和域混淆是通过对分类器设计损失函数实现的。

2023-10-16 15:08:12 134

原创 【域适应九】2023 CVPR - Semi-Supervised Domain Adaptation with Source Label Adaptation

半监督域自适应(SSDA)涉及学习将看不见的目标数据与一些标记和大量未标记的目标数据以及来自相关域的许多标记源数据进行分类。当前的SSDA方法通常旨在通过特征空间映射和伪标签分配将目标数据与标记的源数据对齐。然而,这种面向源的模型有时会将目标数据与错误类的源数据对齐,从而降低分类性能。本文提出了一种新的源自适应范式,该范式调整源数据以匹配目标数据。关键思想是将源数据视为理想目标数据的噪声标记版本。然后,本文提出了一个SSDA模型,该模型借助于从目标角度设计的强大的清洁器组件来动态地清除标签噪声。

2023-10-10 16:27:44 536

原创 【最优传输二十五】2022NIPS-Learning to Re-weight Examples with Optimal Transport for Imbalanced Classificatio

介绍了一种新的基于最优运输(OT)的不平衡分类自动重加权方法。该方法将不平衡训练集呈现为其训练实例上的待学习分布,每个训练实例都与概率权重相关联。类似地,我们的方法将另一个平衡的元集视为示例上的平衡分布。通过根据定义的成本函数最小化两个分布之间的OT距离,将权向量的学习公式化为分布近似问题。我们提出的重新加权方法绕过了元集上常用的分类损失,并使用OT来学习权重,从而在每次迭代时摆脱了权重学习对相关分类器的依赖。这是一种不同于现有大多数重新加权方法的方法,可能为未来的工作提供新的思路。

2023-09-29 11:09:37 179

原创 【最优传输论文二十四】2022 trans Few-Shot Domain Adaptation via Mixup Optimal Transport

无监督域自适应是指在没有任何标记样本的情况下,通过从有足够标记样本的源域转移知识来学习目标域的分类模型。源域和目标域通常共享相同的标签空间,但具有不同的数据分布。在本文中,考虑了一个更困难但尚未充分探索的问题,称为“少样本域自适应”,其中分类器应该在只有少量源域样本的情况下很好地泛化到目标域。在此问题中,我们通过混合最优传输模型来重新定义源样本和目标样本之间的联系。将混合机制集成到最优传输中,通过同时学习跨域对齐矩阵和域不变分类器来增强源分布并对齐两个概率分布,从而实现少样本域自适应。

2023-09-18 14:27:11 161

原创 【域适应论文八】2022 Transferable feature filtration network for multi-sourcedomain adaptation.

现有的基于对抗性的域自适应方法通过欺骗鉴别器来实现域分布的混淆和表征的跨域对齐。然而,传统的方法忽略了不同特征之间可转移性的区别,导致不可转移的域变化特征,例如从背景中提取的特征,也被迫在域之间对齐。为此,本文提出了一种特征过滤机制,并设计了相应的神经网络,实现了基于特征可转移性的选择性特征对齐;这被称为可转移特征过滤网络(TFFN)。本文构建了一个可转移特征学习框架,该框架包含两个子过程:过滤,其中基于注意机制的过滤网络在额外的监督下自动提取可转移特征;

2023-09-16 18:41:50 163

原创 【域适应论文七】2023 Dual teacher-student based separation mechanism for openset domain adaptation

在本文中,提出了一种基于双师生的分离机制(DTSSM),据我们所知,这是DTS结构驱动的分离机制在开放集域自适应中的首次应用。这种机制可以更准确地区分已知和未知的样本,这是基于一个合理的假设,即没有接触目标样本的学生分类器更善于感知目标样本中的未知类别。此外,我们建立了两个结构一致的师生组合,并在训练过程中通过干预措施使其互补。因此,具有分类歧义的样本接近分类边界,而不是被错误分类。考虑到单独的分离策略是不够的,为了解决OSDA的第二个挑战,提出了一个选择性对抗模型。

2023-09-14 20:22:01 183

原创 【最优传输论文二十三】2022 Unified Optimal Transport Framework for Universal

通用领域自适应(Universal Domain Adaptation, UniDA)的目的是在不受标签集约束的情况下,将知识从源领域转移到目标领域。由于两个领域都可能包含私有类,因此确定领域对齐的目标公共样本是UniDA的一个基本问题。大多数现有方法需要手动指定或手动调整阈值来检测共同样本,因此由于共同类别的不同比例,它们很难扩展到更现实的UniDA。此外,由于这些私人样本被视为一个整体,它们无法识别目标私人样本之间的不同类别。

2023-09-02 20:50:32 239

原创 【最优传输二十二】MOST: Multi-Source Domain Adaptation via Optimal Transportfor Student-Teacher Learning

由于知识从多个源域转移到目标域,多源域自适应比传统的数据分析更具挑战性。为此,本文提出了一种基于最优传输和模仿学习理论的多源数据挖掘模型。更具体地说,我们的方法由两个合作代理组成:教师分类器和学生分类器。教师分类器是一个综合专家,它利用领域专家的知识,理论上可以保证完美地处理源示例,而作用于目标领域的学生分类器试图模仿作用于源领域的教师分类器。我们基于最优传输的严谨理论使这种跨域模仿成为可能,并且有助于减轻数据迁移和标签迁移,这是数据分析研究中固有的棘手问题。

2023-08-28 00:09:04 163

原创 【最优传输论文二十一】2022On Transportation of Mini-batches: A Hierarchical Approach

直观地说,OT中的小批量方案可以分解为两个步骤:(1)从两个原始度量的样本中求解每一对小批量之间的局部OT;(2)将局部OT解组合成全局解。如上所述,m-OT的主要问题在于第二步,所有对的小批量在总运输损失中起着相同的作用,同时,来自Xn的小批量更倾向于匹配来自Y n的某些小批量。为了解决这一限制,我们通过考虑小批量之间的最优耦合来增强第二步。通过这样做,我们可以定义一个新的小批量方案,它能够在样本之间构建一个良好的全局映射,也会导致有意义的客观损失。设从中替代采样的小批量样本和从。

2023-08-20 22:19:54 119

原创 【最优传输论文二十】2023 ICCV - DPM-OT A New Diffusion Probabilistic Model Based on Optimal Transport

给定在时刻t的M步轨迹, M≤t, xt∈Xt,则从到的最优轨迹为单步轨迹,通过最小化以下运输成本获得:根据Brenier定理,OT映射g *(·)是满足monge - ampsamre方程的凸Brenier势uh的梯度。文献[14]的第2章中证明了monge - ampre方程解的存在性和唯一性,他使用Alexandrov的方法并宣称:i). Dirac分布序列{νn}弱收敛于数据分布ν;ii).对于每一个狄拉克测度νn,存在一个Alexandrov解(即本文中的离散Brenier势);

2023-08-09 19:42:58 550

原创 【最优传输论文十九】2020 AAAI - Gromov-wasserstein factorization models for graph clustering

(Gromov-Wasserstein距离)设和是两个度量度量空间,其中(X, dX)是紧度量空间,uX是X上的Borel概率测度((Y, dY, uY)以相同的方式定义)。对于p∈[1,∞],定义p阶Gromov-Wasserstein距离为是损失函数,Π(uX, uY)是X× Y上以uX和uY为边际的所有概率测度的集合。GW差异类似于GW距离,但它不要求dX和dY是严格的度量。因此,它在结构数据(如图表)上定义了一个灵活的伪度量和点云。特别地,给定两个图和它们的经验实体分布。

2023-08-05 21:19:23 560

原创 【最优传输论文十八】2022 T-PAMI - Differentiable Hierarchical Optimal Transport for Robust Multi-View Learning

传统的多视图学习方法通常依赖于两个假设:(i)不同视图中的样本是对齐良好的,(ii)它们的表示在潜在空间中服从相同的分布。然而这两个假设在实践中限制了多视角学习的应用。在这项工作中,本文提出了一种可微分层最优传输(DHOT)方法来减轻多视图学习对这两个假设的依赖。给定任意两个视图的未对齐多视图数据,DHOT方法计算其潜在分布之间的切片Wasserstein距离。基于这些切片的Wasserstein距离,DHOT方法进一步计算不同视图之间的熵最优传输,并明确表示视图的聚类结构。

2023-08-03 17:12:42 159

原创 【最优传输论文十七】2018 Large- scale optimal transport and mapping estimation

本文提出了一种新的两步方法来解决从一个分布到另一个分布学习最优映射的基本问题。首先,学习一个最优运输(OT)计划,它可以被认为是两个分布之间的一对多映射。为此,本文提出了一种正则化OT的随机对偶方法,并从经验上表明,当样本量很大时,效果比相关其它方法更好。其次,将Monge映射估计为通过近似先前获得的OT计划的重心投影而学习的深度神经网络。此参数化允许在输入度量的支持之外对映射进行泛化。本文证明了正则化OT的两个理论稳定性结果,表明本文的估计收敛于基础连续测度之间的OT规划和Monge映射。

2023-07-29 11:08:07 195

原创 【最优传输论文十六】(2022 AAAI)Hierarchical Optimal Transport for Unsupervised Domain Adaptation

大多数最优传输方法的共同点是它们能够通过依赖反映输入空间度量的成本函数来捕获数据的底层几何结构。然而,这些最优传输方法可以受益于不依赖于这些基本的几何信息,因为还有其他重要的结构信息没有直接从地面度量中获取,例如,由源中的类标签引起的局部一致性结构。一些方法在域自适应中的应用仅考虑了标记源域中的可用结构,通过按类标签对样本进行划分,而每个目标样本形成自己的聚类。然而,将这些目标结构直接纳入最优传输公式可以显著改善领域自适应算法的性能。

2023-07-20 22:03:45 330

原创 【最优传输论文十五】Normalized Wasserstein for Mixture Distributions with Applications in Adversarial Learning

对于混合分布,建立的距离度量,如Wasserstein距离,没有考虑不平衡的混合比例。因此,即使两个混合分布具有相同的混合成分,但混合比例不同,它们之间的Wasserstein距离也会很大。这通常会导致基于远程的混合分布学习方法产生不期望的结果。在本文中,通过引入归一化Wasserstein度量来解决这个问题。关键思想是引入混合比例作为优化变量,有效地规范化Wasserstein公式中的混合比例。与普通的Wasserstein距离相比,使用所提出的归一化Wasserstein度量可以显著提高混合比例不平

2023-07-19 11:42:34 117

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除