自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

靓仔博客

分享小样本学习与图神经网络相关论文阅读笔记

  • 博客(52)
  • 资源 (1)
  • 收藏
  • 关注

原创 Git 教程

Git是一个开源的分布式版本控制系统,可以有效、高速地处理从很小到非常大的项目版本管理。 也是Linus Torvalds为了帮助管理Linux内核开发而开发的一个开放源码的版本控制软件。

2022-10-02 20:01:01 1447 1

原创 【阅读笔记】Deep Brownian Distance Covariance for Few-Shot Classification

少样本分类是一个具有挑战性的问题,因为每个新任务只提供很少的训练示例。解决这一挑战的有效研究路线之一集中在学习由查询图像和某些类别的少数支持图像之间的相似性度量驱动的深度表示。从统计学上讲,这相当于测量图像特征的依赖性,被视为高维嵌入空间中的随机向量。以前的方法要么只使用边际分布而不考虑联合分布,受限于表示能力,要么虽然利用联合分布但计算成本很高。在本文中,我们提出了一种用于少样本分类的深度布朗距离协方差(DeepBDC)方法。 DeepBDC 的中心思想是通过测量嵌入特征的联合特征函数与边缘乘积之间的差异

2022-05-02 11:24:17 3255 3

原创 【双指针技巧-1】合并两个有序链表

将两个升序链表合并为一个新的 升序 链表并返回。新链表是通过拼接给定的两个链表的所有节点组成的。

2022-04-25 17:03:33 926

原创 【阅读笔记】Deep Graph Contrastive Representation Learning

如今,图表示学习已成为分析图结构化数据的基础。受最近对比方法成功的启发,在本文中,我们通过在节点级别利用对比目标,提出了一种用于无监督图表示学习的新框架。具体来说,我们通过损坏生成两个图视图,并通过最大化这两个视图中节点表示的一致性来学习节点表示。为了为对比目标提供不同的节点上下文,我们提出了一种混合方案,用于在结构和属性级别上生成图形视图。此外,我们从互信息和经典的三元组损失两个角度为我们的动机提供了理论依据。我们使用各种真实世界的数据集对转导和归纳学习任务进行实证实验。实验实验表明,尽管它很简单,但我们

2022-04-22 20:51:47 1444 2

原创 【阅读笔记】Imposing Semantic Consistency of Local Descriptors for Few-Shot Learning

少样本学习受到标记训练数据稀缺的影响。将图像的局部描述符作为图像的表示可以大大增加现有的标记训练数据。现有的基于局部描述符的小样本学习方法利用了这一事实,但忽略了局部描述符所表现的语义可能与图像语义无关。在本文中,我们从一个新的角度来处理这个问题,即对图像的局部描述符施加语义一致性。我们提出的方法由三个模块组成。第一个是局部描述符提取器模块,它可以在一次前向传递中提取大量局部描述符。第二个是局部描述符补偿器模块,它用图像级表示来补偿局部描述符,以使局部描述符和图像语义之间的语义对齐。第三个是基于局部描述符的

2022-04-22 20:31:26 750 1

原创 【阅读笔记】Self-supervised Knowledge Distillation for Few-shot Learning

现实世界包含大量的对象类,一次学习所有这些是不可行的。小样本学习是一种很有前途的学习范式,因为它能够仅用少量样本快速学习无序分布。最近的工作 [7, 41] 表明,简单地学习一个好的特征嵌入可以胜过更复杂的元学习和度量学习算法,用于小样本学习。在本文中,我们提出了一种简单的方法来提高深度神经网络对小样本学习任务的表示能力。我们遵循一个两阶段的学习过程:首先,我们训练一个神经网络以最大化特征嵌入的熵,从而使用自监督辅助损失创建一个最佳输出流形。在第二阶段,我们通过将自监督双胞胎放在一起来最小化特征嵌入的熵,同

2022-04-19 21:50:50 1540

原创 【阅读笔记】Local descriptor-based multi-prototype network for few-shot Learning

基于原型的小样本学习方法很有希望,因为它们简单而有效地处理任意样本问题,并且从那时起提出了许多与原型相关的工作。然而,这些传统的基于原型的方法通常只使用一个原型来表示一个类,这本质上不能有效地估计一个类的复杂分布。为了解决这个问题,我们在本文中提出了一种新颖的基于局部描述符的多原型网络(LMPNet),这是一个精心设计的框架,可以生成具有多个原型的嵌入空间。具体来说,所提出的 LMPNet 使用局部描述符来表示每个图像,与通常采用的图像级特征相比,它可以捕获图像的更多信息和更微妙的线索。此外,为了减轻原型的

2022-04-13 21:35:26 1231 2

原创 【阅读笔记】Revisiting Local Descriptor based Image-to-Class Measure for Few-shot Learning

图像分类中的小样本学习旨在学习一个分类器来在每个类只有很少的训练示例可用时对图像进行分类。最近的工作取得了有希望的分类性能,其中通常使用基于图像级特征的度量。在本文中,我们认为,鉴于小样本学习中示例的稀缺性,这种级别的测量可能不够有效。相反,我们认为应该采用基于局部描述符的图像到类的度量,其灵感来自于它在局部不变特征的鼎盛时期令人惊讶的成功。具体来说,在最近的情景训练机制的基础上,我们提出了一个深度最近邻神经网络(简称 DN4)并以端到端的方式对其进行训练。它与文献的主要区别在于最后一层中基于图像级特征的度

2022-04-13 20:47:57 725

原创 【阅读笔记】Multi-Dimensional Edge Features Graph Neural Network on Few-Shot Image Classification

使用图神经网络 (GNN) 进行小样本图像分类是近年来的热门话题。大多数基于 GNN 的方法都取得了可喜的性能。这些方法利用节点特征或一维边缘特征进行分类,忽略节点之间的丰富边缘特征。在本文中,我们提出了一种利用多维边缘特征的新型图神经网络(MDE-GNN),该网络基于边缘标记图神经网络(EGNN)和用于小样本学习的直推式神经网络。与之前基于 GNN 的方法不同,我们利用多维边缘特征信息在图中构建边缘矩阵。在节点和边缘特征层更新后,我们通过精心设计的边缘聚合模块通过多维边缘特征生成相似度得分矩阵。我们网络中

2022-04-13 20:34:20 1467

原创 【阅读笔记】Learning Dual-Pooling Graph Neural Networks for Few-Shot Video Classification

本文解决了小样本视频分类的问题,该分类仅从几个示例中学习新概念的分类器。当前大多数方法都忽略了明确考虑视频内和视频间域中的关系,因此无法充分利用小样本学习中的结构信息。在本文中,我们建议通过图神经网络 (GNN) 开发全面的视频内和视频间关系。为了提高准确选择代表性视频内容和细化视频关系的判别能力,构建了一个双池 GNN (DPGNN),它以分层方式堆叠定制的图池层。具体来说,为了选择视频中最具代表性的帧,我们构建视频内图并利用节点池化模块来提取稳健的视频级特征。我们通过将视频级特征作为节点来构建视频间图。

2022-04-09 15:16:14 2767

原创 【阅读笔记】Fuzzy Graph Neural Network for Few-Shot Learning

以往的基于图神经网络的小样本学习方法在构建邻接矩阵时,要么通过神经网络计算、要么通过欧式距离计算。然而,这种做法有一个弊端,就是节点之间都有边相连,在图传播的过程中会造成噪声的传播。因此,本文通过对邻接矩阵进行阈值处理,降低噪声的传播。

2022-04-09 15:05:16 1199

原创 【阅读笔记】Large-Scale Few-Shot Learning via Multi-Modal Knowledge Discovery

大规模的少样本学习旨在识别数百个新的对象类别,每个类别只有几个样本。这是一个具有挑战性的问题,因为(1)识别过程容易过度拟合对象的有限样本,以及(2)基础(已知知识)类别和新类别之间的样本不平衡很容易使识别产生偏差结果。为了解决这些问题,我们提出了一种基于多模态知识发现的方法。首先,我们使用视觉知识来帮助特征提取器专注于不同的视觉部分。其次,我们设计了一个分类器来学习所有类别的分布。在第二阶段,我们开发了三种方案来最小化预测误差并平衡训练过程:(1)硬标签用于提供精确的监督。 (2)利用语义文本知识作为弱监

2022-03-22 19:10:05 404

原创 【阅读笔记】Baby Steps Towards Few-Shot Learning with Multiple Semantics

从一个或几个视觉示例中学习是人类自婴儿早期以来的关键能力之一,但对于现代人工智能系统来说仍然是一项重大挑战。虽然在从几个图像示例中进行小样本学习方面取得了相当大的进展,但对于通常提供给婴儿的新对象时的口头描述却很少关注。在本文中,我们专注于可以显着促进少镜头视觉学习的附加语义的作用。在具有附加语义信息的小样本学习的最新进展的基础上,我们证明了通过结合多种和更丰富的语义(类别标签、属性和自然语言描述)可以进一步改进。使用这些想法,我们在流行的 miniImageNet 和 CUB 少样本基准上为社区提供了新结

2022-03-22 18:58:42 261

原创 【阅读笔记】Multimodal Prototypical Networks for Few-shot Learning

尽管为许多计算机视觉任务提供了出色的结果,但最先进的深度学习算法在低数据场景中举步维艰。然而,如果存在其他模式中的数据(如文本),这可以弥补数据的不足,并改善分类结果。为了克服这种数据匮乏的问题,我们设计了一个跨模态特征生成框架,该框架能够在样本较少的场景中丰富低填充嵌入空间,利用来自辅助模态的数据。具体来说,我们训练生成模型,将文本数据映射到视觉特征空间,以获得更可靠的原型。这允许在训练期间利用来自其他模式(如文本)的数据,而测试时间的最终任务仍然是用唯一的视觉数据进行分类。我们表明,在这种情况下,最近邻

2022-03-19 21:27:14 5004

原创 【阅读笔记】Large-Scale Few-Shot Learning: Knowledge Transfer With Class Hierarchy

最近,大规模的少样本学习(FSL)成为热门话题。研究发现,对于源域中有 1000 个类的大规模 FSL 问题,会出现一个强基线,即使用聚合的源类简单地训练深度特征嵌入模型,并使用最近邻(NN)搜索学习目标类的特征。最先进的大规模 FSL 方法难以超越这一基线,这表明可扩展性存在内在限制。为了克服这一挑战,我们提出了一种新颖的大规模 FSL 模型,该模型通过使用类层次结构学习可转移的视觉特征来编码源类和目标类之间的语义关系。大量实验表明,所提出的模型不仅明显优于 NN 基线,而且优于最先进的替代方案。此外,我

2022-03-19 21:20:03 1330 1

原创 【阅读笔记】Adaptive Cross-Modal Few-shot Learning

基于度量的元学习技术已成功应用于小样本分类问题。在本文中,我们建议利用跨模态信息来增强基于度量的少样本学习方法。根据定义,视觉和语义特征空间具有不同的结构。对于某些概念,视觉特征可能比文本特征更丰富、更具辨别力。而对其他人来说,情况可能正好相反。此外,当视觉信息的支持在图像分类中受到限制时,语义表示(从无监督文本语料库中学习)可以提供强大的先验知识和上下文来帮助学习。基于这两种直觉,我们提出了一种机制,可以根据要学习的新图像类别自适应地组合来自两种模式的信息。通过一系列实验,我们表明,通过这两种模态的这种自

2022-03-19 21:11:01 4165

原创 【阅读笔记】Cross-Modality Graph Neural Network For Few-Shot Learning

尝试仅使用少数标记样本来预测未标记样本的少样本学习已引起越来越多的关注。尽管最近的工作取得了可喜的进展,但他们都没有注意到在剧集之间建立一致性,从而导致潜在嵌入空间的模糊性。在本文中,我们提出了一种新颖的跨模态图神经网络(CMGNN)来揭示情节之间的关联,以实现一致的全局嵌入。由于 NLP 引入的语义信息与视觉信息空间相比是相对固定的,因此我们利用它为每个类别构建元节点,以通过 GNN 指导相应的视觉特征学习。此外,为了确保全局嵌入,设计了距离损失函数以更大程度地迫使视觉节点更靠近其关联的元节点。对四个基准

2022-03-14 10:53:28 1310

原创 【阅读笔记】Deep Mutual Learning

模型蒸馏是一种有效且广泛使用的技术,可将知识从教师网络转移到学生网络。典型的应用是从强大的大型网络或集成转移到小型网络,以满足低内存或快速执行的要求。在本文中,我们提出了一种深度相互学习(DML)策略。与模型蒸馏中静态预定义教师和学生之间的单向迁移不同,使用 DML,学生的集合在整个训练过程中协作学习并互相教授。我们的实验表明,各种网络架构都受益于相互学习,并在类别和实例识别任务上都取得了令人信服的结果。令人惊讶的是,它表明不需要先前强大的教师网络 - 一组简单的学生网络的相互学习工作,而且优于来自更强大但

2022-03-10 15:00:50 2111

原创 【阅读笔记】Combat data shift in few-shot learning with knowledge graph

我们提出了一种新颖的基于度量的元学习框架,在知识图谱的帮助下提取任务特定的表示和任务共享的表示。因此,可以通过任务共享和任务特定表示的组合来对抗任务内/任务之间的数据转移。所提出的模型在流行的基准和两个构建的新的具有挑战性的数据集上进行了评估。评估结果证明了其卓越的性能。

2022-03-10 14:46:01 938

原创 【阅读笔记】Task-Adaptive Feature Sub-Space Learning for few-shot classification

最近,Few-Shot Learning (FSL),或者从每个新类中很少(通常是 1 或 5 个)示例中学习(在训练期间看不到),已经受到了很多关注和显着的性能提升。虽然已经为 FSL 提出了许多技术,但有几个因素对 FSL 性能最重要,即使是最简单的技术也能获得 SOTA。它们是:主干架构(越大越好)、预训练类型(元训练 vs 多类)、基类的数量和多样性(越多越好),以及使用辅助自监督任务(一个增加多样性的代理)。在本文中,我们提出了 TAFSSL,这是一种简单的技术,用于在一些额外的未标记数据伴随小样

2022-02-25 20:46:02 765

原创 【嵌入传播】Embedding Propagation: Smoother Manifold for Few-Shot Classification

少样本分类具有挑战性,因为训练集的数据分布可能与测试集大不相同,因为它们的类不相交。这种分布变化通常会导致泛化能力差。流形平滑已被证明可以通过扩展决策边界和减少类表示的噪声来解决分布偏移问题。此外,流形平滑度是半监督学习和转导学习算法的关键因素。在这项工作中,我们建议使用嵌入传播作为无监督的非参数正则化器,用于小样本分类中的流形平滑。嵌入传播利用基于相似图的神经网络提取特征之间的插值。我们凭经验表明嵌入传播会产生更平滑的嵌入流形。我们还表明,将嵌入传播应用于转导分类器在 miniImagenet、tiere

2022-02-23 22:50:00 1006

原创 【关系网络】Learning to Compare: Relation Network for Few-Shot Learning

度量学习:关系网络

2022-02-22 21:49:33 925 1

原创 【原型网络】Prototypical Networks for Few-shot Learning

原型网络,基于这样的想法,即存在一个嵌入,其中点围绕每个类的单个原型表示聚集。为了做到这一点,我们使用神经网络学习输入到嵌入空间的非线性映射,并将类的原型作为其在嵌入空间中的支持集的平均值。然后通过简单地找到最近的类原型对嵌入的查询点执行分类。

2022-02-22 21:40:14 2021

原创 【阅读笔记】Iterative label cleaning for transductive and semi-supervised few-shot learning

小样本学习相当于学习表示和获取知识,以便可以在监督和数据有限的情况下解决新颖的任务。通过可同时使用整个测试集的直推式推理和可使用更多未标记数据的半监督学习,可以提高性能。针对这两个设置,我们引入了一种新算法,该算法利用标记和未标记数据分布的流形结构来预测伪标签,同时平衡类并使用有限容量分类器的损失值分布来选择最干净的标签,迭代地提高伪标签的质量。

2022-02-19 14:53:17 799

原创 【孪生网络】Siamese Neural Networks for One-shot Image Recognition

目标是首先学习一个神经网络,可以区分图像对是否是来自同一个类别,这是图像识别的标准验证任务。我们假设在验证方面做得好的网络应该推广到一次分类。验证模型学习根据输入对属于同一类或不同类的概率来识别输入对。然后,该模型可用于评估新图像,每个新类恰好有一个新图像,以两两方式对测试图像进行评估。根据验证网络,得分最高的配对将获得完成一次性任务的最高概率。

2022-02-18 21:22:36 788

原创 【阅读笔记】Reinforced Attention for Few-Shot Learning and Beyond

在本文中,我们建议为骨干网络配备一个通过强化学习训练的注意力代理。策略梯度算法用于训练代理随着时间的推移自适应地定位特征图上的代表性区域。我们进一步设计了基于保留数据预测的奖励函数,从而帮助注意力机制更好地泛化到未见过的类别中。广泛的实验表明,在强化注意力的帮助下,我们的嵌入网络能够在少样本学习中逐步生成更具辨别力的表示。此外,图像分类任务的实验也表明了所提出设计的有效性。

2022-02-06 15:39:36 3216 1

原创 【阅读笔记】Learning Intact Features by Erasing-Inpainting for Few-shot Classification

在本文中,我们建议通过擦除修复来学习完整的特征,以进行小样本分类。具体来说,我们认为提取目标对象的完整特征更具可转移性,然后提出一种新的交叉集擦除修复(CSEI)方法。CSEI 使用擦除和修复处理支持集中的图像,然后使用它们来增强同一任务的查询集。因此,我们提出的方法产生的特征嵌入可以包含更完整的目标对象信息。此外,我们提出了特定于任务的特征调制,以使特征适应当前任务。在两个广泛使用的基准上进行的大量实验很好地证明了我们提出的方法的有效性,它可以始终如一地为不同的基线方法获得可观的性能提升。

2022-01-30 20:40:17 3655

原创 Exploring Complementary Strengths of Invariant and Equivariant Representations for Few-Shot Learning

在这项工作中,我们建立在这种洞察力的基础上,并提出了一种新颖的训练机制,该机制同时对一组通用的几何变换实施等变性和不变性。等变性或不变性已在以前的工作中中单独使用;然而,据我们所知,它们并未被联合使用。对这两个对比目标的同时优化 允许模型共同学习 不仅独立于输入变换而且编码几何变换结构的特征的特征。这些互补的特征集有助于很好地推广到只有少数数据样本的新类。我们通过结合一个新的自我监督蒸馏目标实现了额外的改进。我们广泛的实验表明,即使没有知识蒸馏,我们提出的方法也可以在五个流行的基准数据集上优于当前最先进的

2022-01-28 11:05:44 3517

原创 【阅读笔记】Partner-Assisted Learning for Few-Shot Image Classification

小样本学习已经被研究来模仿人类的视觉能力和学习有效的模型,而不需要详尽的人类注释。尽管适应元学习的思想主导了小样本学习方法,但如何训练特征提取器仍然是一个挑战。在本文中,我们关注于训练策略的设计,以获得一个元素表示,使每个新类的原型可以从几个标记的样本估计。我们提出了一个两阶段的训练方案,伙伴辅助学习(PAL),首先训练伙伴编码器建模成对的相似性和提取特征作为软锚,然后训练主编码器,将其输出与软锚对齐,同时试图最大化分类性能。分别设计了logit级和特征级对齐约束。对于每个少量的任务,我们执行原型分类。我们

2022-01-19 16:53:43 2787

原创 【阅读笔记】Rethinking Few-Shot Image Classification: a Good Embedding Is All You Need?

近年来元学习研究的重点是快速适应有限数据和低计算成本的测试时间任务的学习算法。小样本学习作为元学习的标准之一被广泛应用。在这项工作中,我们展示了一个简单的基线:在元训练集上学习一个有监督或自我监督的表示,然后在这个表示之上训练一个线性分类器,比最先进的小样本学习方法表现得更好。通过使用自蒸馏可以获得额外的提升。这表明,使用一个良好的学习嵌入模型可以比复杂的元学习算法更有效。我们相信,我们的发现激发了对小样本图像分类基准和元学习算法相关角色的重新思考。

2022-01-18 20:12:03 1883

原创 【阅读笔记】Meta-Learning with Task-Adaptive Loss Function for Few-Shot Learning-ICCV-2021

在少样本学习场景中,挑战在于当每个任务只有很少的标记示例可用时,在新的未见示例上泛化并表现良好。与模型无关的元学习(MAML)因其灵活性和对各种问题的适用性而成为具有代表性的少样本学习方法之一。然而,MAML 及其变体通常采用简单的损失函数,而没有任何辅助损失函数或正则化项来帮助实现更好的泛化。问题在于每个应用和任务可能需要不同的辅助损失函数,特别是当任务多样化和不同时。我们没有尝试为每个应用程序和任务手动设计辅助损失函数,而是引入了一个新的元学习框架,该框架具有适应每个任务的损失函数。我们提出的框架名为

2022-01-14 20:59:14 2190 1

原创 【阅读笔记】Looking Wider for Better Adaptive Representation in Few-Shot Learning-AAAI-2021

CNN 主要关注感受野有限的局部信息,而远距离像素生成的全局信息没有得到很好的利用。同时,对当前任务有一个全局的了解,并针对不同的查询关注同一样本的不同区域,这对于少样本分类很重要。为了解决这些问题,我们提出了跨非局部神经网络(CNL)来捕获样本和当前任务的长期依赖关系。CNL 通过聚合来自其自身和当前任务的所有位置的信息来增强样本在某个位置的特征,从而动态地提取任务特定和上下文感知的特征。为了减少丢失重要信息,我们最大化原始特征和细化特征之间的互信息作为约束。此外,我们添加了一个特定于任务的缩放来处理由

2022-01-13 22:00:38 897 1

原创 【阅读笔记】Conditional Random Field Enhanced Graph Convolutional

强制执行隐藏层以保持相似关系具有挑战性。为了解决这个问题,我们提出了一种用于图卷积神经网络的新型 CRF 层,以鼓励相似的节点具有相似的隐藏特征。通过这种方式,可以明确地保留相似性信息。此外,所提出的 CRF 层易于计算和优化。因此,它可以很容易地插入到现有的图卷积神经网络中以提高其性能。最后,大量的实验结果验证了我们提出的 CRF 层的有效性。

2022-01-11 10:11:26 880

原创 【阅读笔记】Mutual CRF-GNN for Few-shot Learning

在本文中,我们提出了一种新颖的 Mutual CRF-GNN (MCGN)。在这个 MCGN 中,支持数据的标签和特征被 CRF 用于以有原则和概率的方式推断 GNN 亲和力。具体来说,我们构建了一个以标签和支持数据的特征为条件的条件随机场 (CRF),以推断标签空间中的亲和力。这种亲和性作为节点亲和性被馈送到 GNN。GNN和CRF在MCGN中相互促进。

2022-01-10 11:33:19 1409 2

原创 【阅读笔记】Adversarial Feature Hallucination Networks for Few-Shot Learning-CVPR-2020

本文提出了一种基于条件Wasserstein生成式对抗网络的对抗特征幻觉网络(AFHN),该网络以少数标记样本为条件,产生了多种多样的识别特征。在AFHN中引入分类正则化和抗坍塌正则化两种新的正则化方法,分别提高了合成特征的可鉴别性和多样性。

2022-01-09 10:46:13 659

原创 【阅读笔记】Distribution-induced Bidirectional Generative Adversarial Network for Graph Representation

图表示学习的目的是将一个图的所有节点编码成低维向量,作为许多计算视觉任务的输入。然而,现有的算法大多忽略了数据固有分布甚至噪声的存在。这可能会显著增加过拟合现象,降低测试精度。在本文中,我们提出了一种分布诱导的双向生成对抗网络(DBGAN),用于图表示学习。该算法采用结构感知的方法估计潜在表示的先验分布,而不是广泛使用的正态分布假设,通过原型学习隐式地连接图和特征空间。这样就为所有节点生成了有区别的鲁棒表示。此外,为了在保持表示能力的同时提高泛化能力,通过一个双向对抗学习框架很好地平衡了样本级和分布级的一致

2022-01-06 20:57:49 1146

原创 【阅读笔记】Few-Shot Unsupervised Image-to-Image Translation-ICCV-2019

无监督的图像到图像转换方法学习将给定类别中的图像映射到不同类别中的类似图像,利用非结构化(非注册)图像数据集。虽然非常成功,但当前的方法需要在训练时访问源类和目标类中的许多图像。我们认为这极大地限制了它们的使用。从人类从少量示例中提取新对象的本质并从那里进行概括的能力中汲取灵感,我们寻求一种少样本、无监督的图像到图像转换算法,该算法适用于以前看不见的目标类在测试时,仅由几个示例图像指定。我们的模型通过将对抗性训练方案与新颖的网络设计相结合来实现这种少量生成能力。通过广泛的实验验证和与基准数据集上的几种基线方

2022-01-06 20:35:49 1209

原创 对称图自编码器-Symmetric Graph Convolutional Autoencoder for Unsupervised Graph Representation Learning

我们提出了一种对称图卷积自动编码器,它可以从一个图生成一个低维的潜在表示。与现有的具有非对称解码器部分的图形自动编码器相比,本文提出的自动编码器具有一个新设计的解码器,该解码器构建了一个完全对称的自动编码器形式。对于节点特征的重构,编码器采用拉普拉斯平滑、解码器使用拉普拉斯锐化,使得所提出的自编码器体系结构的整个过程都可以利用图结构。为了防止引入拉普拉斯锐化引起的网络数值不稳定性,我们进一步提出了一种引入符号图的拉普拉斯锐化新的数值稳定形式。

2021-12-30 15:48:36 2294

原创 对抗正则化图自编码器-ARGA-ARVGA

对抗图自编码器

2021-12-30 15:34:14 2662

原创 变分图自编码器+代码解读

变分图自编码器

2021-12-28 10:38:26 2496 1

中国计算机学会推荐国际学术期刊和会议

中国计算机学会推荐国际学术期刊和会议

2021-11-18

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除