![](https://img-blog.csdnimg.cn/direct/ef72171610654540814216715a1d5fe5.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
零样本学习
文章平均质量分 78
零样本图像分类,广义零样本学习
computer_vision_chen
个人简介:计算机视觉研究生,富士康深圳总部师三级别软件工程师。热爱编程,中医。努力提高计算机视觉算法,C++开发,嵌入式,立志成为嵌入式人工智能应用工程师。
展开
-
En-Compactness:Self-Distillation Embedding&Contrastive Generation forGeneralized Zero-Shot Learning
广义零样本学习(GZSL)需要一个在可见类上训练的分类器,该分类器可以识别可见类和不可见类中的对象。由于缺少不可见的训练样本,分类器倾向于偏向可见类别。为了缓解这个问题,提出了基于特征生成的模型来为未见过的类合成视觉特征。然而,这些特征是在缺乏鉴别能力的视觉特征空间中生成的。因此,一些方法转向为分类器训练寻找更好的嵌入空间。它们强调可见类别的类间关系,导致嵌入空间过度拟合可见类别,对不可见类别不友好。相反,在本文中,我们提出了用于GZSL的类内紧凑性增强方法(ICCE)。原创 2023-12-14 20:33:57 · 853 阅读 · 0 评论 -
Prototypical Model with Information-theoretic LossFunctions for Generalized Zero-Shot Learning 中文版
广义零样本学习(GZSL)仍然是深度学习的一个技术挑战。在只使用来自源类的数据进行训练时,为了保持源类和目标类之间的语义关系,我们从信息理论的角度着手量化知识传递。我们使用原型模型,并将关注的变量格式化为概率向量。利用概率向量表示,可以有效地使用简单的封闭形式评估信息度量。我们提出了两个信息理论损失函数:一个互信息损失用于连接观察数据和目标类;一个考虑不确定性的熵约束损失,用于防止在使用观察数据学习目标类嵌入时出现过拟合。原创 2024-03-19 21:37:00 · 839 阅读 · 0 评论 -
Data-Free Generalized Zero-Shot Learning 中文版
深度学习模型的强大之处在于它们能够从大规模数据集中提取丰富的知识,包括视觉特征和语义信息。然而,跨不同公司、机构和国家之间的数据共享变得越来越具有挑战性和敏感性。与数据版权和隐私相关的担忧,特别是在健康和安全等敏感领域,给大规模数据集中的知识顺利传输到新的下游任务和概念中造成了重大障碍。这些挑战阻碍了深度学习模型的广泛利用,并限制了它们在各个领域的潜在影响。原创 2024-03-19 21:07:01 · 728 阅读 · 0 评论 -
Meta-Learned Attribute Self-Interaction Network for Continual and GeneralizedZero-Shot Learning中文版
零样本学习(ZSL)是一种有希望的方法,通过利用类别属性将模型推广到训练期间未见过的类别,但仍然存在挑战。最近,利用生成模型来解决对训练期间已见类别的偏见的方法推动了技术的进步,但这些生成模型可能训练速度较慢或计算成本较高。此外,这些生成模型假设每个未见类别的属性向量在训练时是事先可用的,但这并不总是切实可行的。另外,许多先前的ZSL方法假设对未见类别进行一次性适应,但实际上,世界总是在变化,需要不断调整已部署的模型。无法处理数据的顺序流的模型可能会经历灾难性遗忘。原创 2024-03-19 20:38:18 · 1084 阅读 · 0 评论 -
Harnessing Causal Structure Alignment for EnhancedCross-Domain Named Entity Recognition 中文版
命名实体识别(NER)是自然语言处理(NLP)中的基础任务,旨在从文本中识别具有特定语义含义的实体,如人名、地点、组织机构和机构名称。它在知识图谱、信息提取和文本理解等方面发挥着重要作用。在实际应用中,不同领域文本流派和术语的巨大差异构成了重大挑战,经常导致特定目标领域内标注数据的稀缺性。因此,针对跨领域场景,特别是跨领域命名实体识别(CD-NER)的模型适应性在近年来引起了极大的研究关注。这在资源受限的环境中尤为重要,因为标注数据的可用性有限。目前关于CD-NER的研究主要集中在三种不同的策略上。原创 2024-03-19 16:26:09 · 490 阅读 · 0 评论 -
Zero-Shot Learning with Joint Generative Adversarial Networks 中文版
零样本学习(ZSL)是通过在嵌入空间或特征生成中从已见类别向未见类别转移知识来实现的。然而,基于嵌入的方法存在hubness问题,而基于生成的方法可能包含相当大的偏差。为了解决这些问题,本文提出了一种多个生成对抗网络联合模型(JG-ZSL)。首先,我们将基于生成的模型和基于嵌入的模型相结合,通过将真实样本和合成样本映射到嵌入空间进行分类,建立了一个混合ZSL框架,有效地缓解了数据不平衡的问题。原创 2024-03-19 15:32:24 · 681 阅读 · 0 评论 -
Leveraging Dual Variational Autoencoders and Generative Adversarial Networks for Enhanced Multimodal
想象一下教导一台计算机识别它从未见过的动物的挑战,这正是零样本学习(ZSL)的本质,这是计算机科学中一个引人入胜的领域,使计算机能够识别它们在训练中从未遇到过的新类别。这与计算机的传统学习方法形成对比,后者通常需要大量的样本。在ZSL中,计算机可以用更少的例子进行学习,依赖于描述或属性等相关信息。在诸如医学影像中识别罕见疾病或自然栖息地中的不常见动物等难以获得大量样本的场景中,这尤其有益。在典型的ZSL方法中,计算机首先接受已知类别的训练,然后利用这些已知类别与新类别之间的相似性来推断后者。原创 2024-03-17 15:33:02 · 817 阅读 · 0 评论 -
Generalized Zero-and Few-Shot Learning via Aligned Variational Autoencoders中文翻译(CADA模型)
在这项工作中,我们将特征生成推进了一步,提出了一种模型,通过模态特定的对齐变分自动编码器学习图像特征和类别嵌入的共享潜在空间。这使我们在潜在特征中获得了关于图像和类别的必要的判别信息,我们在这些特征上训练了一个softmax分类器。我们方法的关键在于我们将从图像和侧信息学习的分布进行了对齐,以构建包含与未见类别相关的基本多模态信息的潜在特征。我们在几个基准数据集上评估了我们学习到的潜在特征,即CUB、SUN、AWA1和AWA2,并在广义零样本学习以及少样本学习方面建立了新的最先进水平。原创 2024-03-13 16:33:35 · 128 阅读 · 0 评论 -
En-Compactness:Self-Distillation Embedding&Contrastive Generation forGeneralized Zero-Shot Learning
近年来,基于特征生成的广义零样本学习(GZSL)方法[11,14,15,26,28,38]已被提出,通过在语义描述符的条件下合成未见类别的训练样本,以缓解强偏见问题。相反,由于类内关系是独立于类别的,如果我们加强这些已见类别的类内关系,嵌入空间也可以在不同类别之间实现更好的泛化能力。首先,它们在已见过的类别上学习分类模型,这些类别提供了训练样本,然后使用类别级别的语义描述符[10,24,31,32]将模型迁移到未见过的类别,例如视觉属性[10,24]或单词向量[31,32]。原创 2024-02-02 22:33:43 · 263 阅读 · 0 评论 -
FREE:Feature Refinement for Generalized Zero-Shot Learning 中文版
广义零样本学习(GZSL)已经取得了显著的进展,许多工作致力于克服视觉-语义领域差距和已知-未知偏差的问题。在本文中,我们提出了一种简单而有效的GZSL方法,称为广义零样本学习的特征细化(FREE),以解决上述问题。FREE采用了一个特征细化(FR)模块,将语义→视觉映射纳入统一的生成模型,以细化已知和未知类别样本的视觉特征。此外,我们提出了一种自适应边界中心损失(SAMC-loss),与语义循环一致性损失合作,引导FR学习与类别和语义相关的表示,并在FR中连接特征以提取完全细化的特征。原创 2024-01-26 17:53:37 · 198 阅读 · 0 评论 -
ZSL 四区期刊信息(自用)
作者的姓名应在论文标题下的标题页上注明。包括作者的隶属关系,即机构、(部门)、城市、(州)、国家。还应提供通讯作者的明确指示和有效的机构电子邮件地址。如果无法验证作者的身份,论文可能会被自动拒绝。没有作者姓名和隶属关系的论文将被拒绝,有关更多信息,请参阅期刊的同行评审政策。校样制作完成并进行作者更正后不久,更正后的校样将在期刊的印前模块中在线发布。一旦文章被分配到某一期,最终的书目信息将被添加,印前文件将被更新的最终版本取代。通讯作者将收到一份PDF校样,并被要求仔细检查校样(出版商只会粗略检查)。原创 2024-01-13 11:33:33 · 91 阅读 · 0 评论 -
零样本学习研究方向sci四区期刊总结
sci 四区非OA出版商:OPTICA期刊官方网站:期刊投稿网址:虽然有zsl的名字但是这是全息图像专刊,跟我的方向应该不是太相关。原创 2024-01-11 18:58:37 · 385 阅读 · 0 评论 -
MSDN:Mutually Semantic Distillation Network for Zero-Shot Learning 中文版 待更新
零样本学习(ZSL)的关键挑战是如何将潜在的语义知识融合在可见类的视觉特征和抽象特征之间,从而实现向不可见类的横向知识转移。之前的工作要么只是将图像的全局特征与其相关的类语义向量对齐,要么利用单向注意力来学习有限的潜在语义表示,这无法有效地发现视觉特征和属性特征之间的内在语义知识(如属性语义)。为了解决上述难题,我们提出了一个相互语义蒸馏网络(MSDN),它逐步蒸馏视觉和属性特征之间的内在语义表示,用于ZSL。原创 2023-12-19 09:30:23 · 1019 阅读 · 0 评论 -
python画出2行4列个子图
【代码】python画出2行4列个子图。原创 2023-11-15 10:31:18 · 192 阅读 · 0 评论 -
python生成n个指定范围内的随机数 & tensor转list & list中的小数保留两位小数 & 根据零样本学习的S和H和偏移量计算H的值
【代码】python生成n个指定范围内的随机数 & tensor转list & list中的小数保留两位小数 & 根据零样本学习的S和H和偏移量计算H的值。原创 2023-11-14 19:34:08 · 374 阅读 · 0 评论 -
Semantics Disentangling for Generalized Zero-Shot Learning解读
其实除了VAE自监督外,引入语义属性来约束生成特征的质量。感觉解纠缠这个说法有点扯淡。原创 2023-11-13 16:40:55 · 174 阅读 · 0 评论 -
Zero-Shot Learning by Harnessing Adversarial Samples 理论 & 代码解读
Zero-Shot Learning by Harnessing Adversarial Samples》基于对抗样本的零样本学习。原创 2023-10-01 19:52:38 · 167 阅读 · 0 评论 -
(CVPR2023)Bi-directional Distribution Alignment for Transductive Zero-Shot Learning
由上图和下图的test_seen_feature可以看出,在测试阶段,才让特征进行VHA融合处理。如下图所示,训练分类器阶段,直接取了模型的原始图片特征V作为输入,不是VHA拼接然后作为输入。原创 2023-09-18 09:14:54 · 166 阅读 · 0 评论 -
(CVPR2023)《Progressive Semantic-Visual Mutual Adaption for Generalized Zero-Shot Learning》理论 & 代码解读
当各种视觉表象对应于同一属性时,共享属性不可避免地会引入语义歧义,阻碍了语义-视觉准确的对齐。在本文中,我们部署了双语义-视觉转换器模块(DSVTM)来逐步建模属性原型与视觉特征之间的对应关系,从而构成一个渐进的语义-视觉互适(PSVMA)网络,以实现语义消歧和知识可传递性的改进。具体来说,DSVTM 设计了一个以实例为动力的语义编码器,该编码器学习以实例为中心的原型以适应不同的图像,从而能够将不匹配的语义-视觉配对重铸为匹配的配对。原创 2023-09-08 02:47:23 · 296 阅读 · 1 评论 -
VAE原理 & 代码详解 & pin_memory
而将数据锁定在主机内存中,可以避免数据在传输过程中被分页,提高了数据传输的效率,从而减少了数据加载到GPU的时间。F.relu(self.fc1(x))和nn.ReLU(self.fc1(x))在功能上是相同的,都是使用ReLU(Rectified Linear Unit)作为激活函数来处理self.fc1(x)的结果。综上所述,F.relu(self.fc1(x))是直接调用了ReLU激活函数功能,而nn.ReLU(self.fc1(x))是通过在神经网络模型中添加一个ReLU层来实现激活函数的功能。原创 2023-08-26 16:40:06 · 883 阅读 · 1 评论