![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文
文章平均质量分 91
哈哈哈hhhhhh
这个作者很懒,什么都没留下…
展开
-
Multi-Level Matching and Aggregation Network for Few-Shot Relation Classification
本文提出了一种用于少样本关系分类的多级匹配和聚合网络(MLMAN)。 先前关于该主题的研究采用原型网络,它独立计算查询实例的嵌入向量和每个支持集的原型向量。 相比之下,我们提出的 MLMAN 模型通过在本地和实例级别考虑它们的匹配信息,以交互方式对查询实例和每个支持集进行编码。 每个支持集的最终类原型是通过对其支持实例的表示进行注意聚合(attentive aggregation)获得的,其中权重是使用查询实例计算的。 实验结果证明了我们提出的方法的有效性,在 FewRel 数据集上实现了新的最先进的性能。原创 2022-06-16 17:48:03 · 506 阅读 · 0 评论 -
Hierarchical Attention Prototypical Networks for Few-Shot Text Classification
Abstract目前文本分类任务的有效方法大多基于大规模的标注数据和大量的参数,但当监督训练数据少且难以收集时,这些模型就无法使用。 在本文中,我们提出了一种用于少样本文本分类的分层注意原型网络(HAPN)。 我们为我们的模型设计了特征级别、词级别和实例级别的多交叉注意力,以增强语义空间的表达能力。 我们在两个标准的基准小样本文本分类数据集——FewRel 和 CSID 上验证了我们的模型的有效性,并实现了最先进的性能。 分层注意层的可视化表明我们的模型可以分别捕获更重要的特征、单词和实例。 此外,我们的原创 2022-05-25 16:36:34 · 886 阅读 · 0 评论 -
Diverse Few-Shot Text Classification with Multiple Metrics
Abstract我们研究自然语言领域的小样本学习。 与将基于度量或基于优化的元学习应用于具有低任务间方差的图像域的许多现有工作相比,我们考虑了一个更现实的设置,其中任务是多样化的。 然而,它给现有最先进的基于度量的算法带来了巨大的困难,因为单个度量不足以捕捉自然语言域中的复杂任务变化。 为了缓解这个问题,我们提出了一种自适应度量学习方法,该方法自动从一组从元训练任务中获得的度量中确定最佳加权组合,用于新出现的少样本任务。 对现实世界情感分析和对话意图分类数据集的广泛定量评估表明,所提出的方法在预测准确性方原创 2022-05-24 22:32:49 · 343 阅读 · 0 评论 -
Learning to Decouple Relations: FewShot RC with Entity-Guided Attention and Confusion-Aware Training
Yingyao Wang1∗, Junwei Bao2, Guangyi Liu3, Youzheng Wu2,Xiaodong He2, Bowen Zhou2, Tiejun Zhao11Harbin Institute of Technology, Harbin, China2JD AI Research, Beijing, China3The Chinese University of Hong Kong, Shenzhen, China{baojunwei,wuyouzheng1,xia原创 2022-03-16 21:01:37 · 370 阅读 · 0 评论 -
Augmenting Few-Shot Learning With Supervised Contrastive Learning
When Deep Learning Meets Metric Learning: Remote Sensing Image Scene Classification via Learning Discriminative CNNs原创 2022-02-22 16:57:56 · 651 阅读 · 0 评论 -
LEARNING TO MATCH TRANSIENT SOUND EVENTS USING ATTENTIONAL SIMILARITY FOR FEW-SHOT SOUND RECOGNITION
4. CONCLUSION我们引入了一个简单的注意力相似性模块,用于小样本声音识别,以生成输入的注意力表示。 它允许模型在匹配相对短的声音事件时忽略不相关的背景噪声。 大量实验表明,注意力相似性不断提高各种现有方法在无噪声或有噪声剪辑数据集上的性能。 未来,我们计划扩展模型以采用多标签学习设置进行少量声音识别。2. APPROACH2.1. Few-shot sound recognition在我们的工作中,我们使用简单而强大的 ConvNet 架构作为我们的特征学习模型 fcnn(·)。 该模型可原创 2022-02-15 11:48:53 · 1697 阅读 · 0 评论 -
Modified Logistic Regression: An Approximation to SVM and Its Applications in Large-Scale Text Categ
Jian Zhang jian.zhang@cs.cmu.eduRong Jin rong@cs.cmu.eduYiming Yang yiming@cs.cmu.eduAlex G. Hauptmann alex@cs.cmu.eduSchool of Computer Science, Carnegie Mellon University, 5000 Forbes Avenue, Pittsburgh, PA 15213 USAAbstract原创 2022-01-09 11:47:20 · 549 阅读 · 0 评论 -
Large-Margin Regularized Softmax Cross-Entropy Loss
XIAOXU LI , DONGLIANG CHANG, TAO TIAN, AND JIE CAOSchool of Computer and Communication, Lanzhou University of Technology, Lanzhou 730050, ChinaCorresponding author: Jie Cao (caoj@lut.edu.cn)ABSTRACT机器学习和神经网络社区普遍采用带有 L2 正则化的 Softmax 交叉熵损失。考虑到传统的 softmax原创 2022-01-07 15:17:34 · 1678 阅读 · 0 评论 -
SphereFace: Deep Hypersphere Embedding for Face Recognition
Weiyang Liu 1 Yandong Wen 2 Zhiding Yu 2 Ming Li 3 Bhiksha Raj 2 Le Song 11 Georgia Institute of Technology2 Carnegie Mellon University3 Sun Yat-Sen Universitywyliu@gatech.edu, {yandongw,yzhiding}@andrew.cmu.edu, lsong@cc.gatech.eduAbstract本文研原创 2022-01-05 20:54:50 · 1220 阅读 · 0 评论 -
A Discriminative Feature Learning Approach for Deep Face Recognition
Yandong Wen1, Kaipeng Zhang1, Zhifeng Li1(B), and Yu Qiao1,21 Shenzhen Key Lab of Computer Vision and Pattern Recognition,Shenzhen Institutes of Advanced Technology, CAS, Shenzhen, Chinayandongw@andrew.cmu.edu, {kp.zhang,zhifeng.li,yu.qiao}@siat.ac.cn2原创 2022-01-03 14:17:19 · 2160 阅读 · 1 评论 -
CosFace: Large Margin Cosine Loss for Deep Face Recognition
Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou,Zhifeng Li∗, and Wei Liu∗Tencent AI Lab{hawelwang,yitongwang,encorezhou,denisji,sagazhou,michaelzfli}@tencent.comgongdihong@gmail.com wliu@ee.columbia.eduAbstract由于深度卷积神经网络 (CNN)原创 2021-12-27 09:30:54 · 1570 阅读 · 0 评论 -
Enhancing Metric-Based Few-Shot Classification With Weighted Large Margin Nearest Center Loss
episodic 训练中常用的损失函数(例如交叉熵和均方误差)力求实现嵌入空间中不同标签样本被无限距离(an infinite distance)分隔的严格目标【无限距离怎么说?】。 然而,学习到的嵌入空间并不能保证从大量类中采样的每个 episode 都能实现这个目标【怎么说?】。 取代无限距离,LMNC 损失仅仅需要将不同标签的样本用一个大边距分开,这可以很好地减轻传统损失函数的严格约束,很容易学得有判别性的嵌入空间。此外,考虑到不同类之间的多层次的相似性( multilevel similarity原创 2021-12-07 21:43:02 · 262 阅读 · 0 评论 -
Class-wise Metric Scaling for Improved Few-Shot Classification (基于类的度量缩放提升小样本分类)
Class-wise Metric Scaling for Improved Few-Shot Classification(基于类的度量缩放提升小样本分类)问题定义a base set Db = {(x, y)} ⊂ X × Yb for training,a validation set Dv = {(x, y)} ⊂ X × Yv for model selection,and a novel set Dn = {(x, y)} ⊂ X × Yn for testinNearest-Ce原创 2021-09-26 16:16:29 · 619 阅读 · 1 评论 -
Negative Margin Matters: Understanding Margin in Few-Shot Classification(理解小样本分类的边缘)
Abstract.本文引入了一个基于度量学习的小样本学习的负边缘损失,负边缘损失显著优于softmax损失,在三个标准的小样本分类基准上实现了最好效果的accuracy。这些结果与度量学习领域的普遍做法相反,普遍做法的边际为零或正。为了理解为什么负边缘损失在小样本分类中表现良好,我们从经验和理论两方面分析了训练类和新类在不同边缘下学习到的特征的可鉴别性(discriminability)。我们发现,负边缘虽然降低了训练类的特征可识别性(discriminability),但也可以避免将相同的新类的样本错误原创 2021-10-01 17:14:20 · 1863 阅读 · 9 评论 -
Multi-Scale Metric Learning for Few-Shot Learning(用于小样本学习的多尺度度量学习)
Abstract本文提出了一种新的小样本学习方法,名字叫多尺度度量学习(multi-scale metric learning, MSML),能提取多尺度特征,学习样本间的多尺度关系,进行少镜头学习分类。提出了一种基于特征金字塔结构的多尺度特征嵌入方法,旨在将高级(high-level)语义特征与低级丰富的视觉特征相结合。在此基础上,提出了一种用于层次(hierarchical)度量学习的多尺度关系生成网络(MRGN),其中高级特征对应于深度(deeper)度量学习,低级特征对应于较轻(lighter)度原创 2021-10-04 10:55:18 · 3836 阅读 · 3 评论 -
Few-Shot Classification of Aerial Scene Images via Meta-Learning(基于元学习的航拍场景图像小样本分类)
Abstract:基于卷积神经网络(CNN)的方法近年来在航空场景分类领域占据主导地位。虽然取得了显著的成功,但基于cnn的方法存在过多的参数,并依赖于大量的训练数据。在本工作中,我们将小样本学习引入到航拍场景分类问题中。小样本学习的目的是学习一个基于基本集的模型,该模型仅使用少量的标记样本就能快速适应novel-set 中未见的类别。为此,我们提出了一种用于航拍场景图像小样本分类的元学习方法。首先,我们在所有基本类别上训练一个特征提取器来学习输入的表示。然后在元训练阶段,利用带有可学习尺度(scale)原创 2021-10-05 15:43:33 · 1095 阅读 · 2 评论 -
Few-Shot Hyperspectral Image Classification With Unknown Classes Using Multitask Deep Learning
期刊影响因子 5 分多。本文中使用的代码和注释可以在 https://sjliu.me/MDL4OW 上获得。Abstract当前的高光谱图像分类假设预定义的分类系统是封闭且完整的,并且在看不见的数据中没有未知或新的类别。 然而,这个假设对于现实世界来说可能过于严格。通常,在构建分类系统时会忽略新的类别。 封闭性迫使模型在给定新样本的情况下分配标签,并可能导致对已知土地覆盖(例如作物面积)的高估。为了解决这个问题,我们提出了一种多任务深度学习方法,该方法在可能存在未知类的开放世界(命名为 MDL4OW原创 2021-10-06 16:10:21 · 734 阅读 · 0 评论 -
TADAM: Task dependent adaptive metric for improved few-shot learning
Abstract小样本学习对于生成从少数例子中泛化的模型至关重要。在这项工作中,我们发现度量缩放和度量任务调节对于提高少样本算法的性能很重要。我们的分析表明,简单的度量缩放完全改变了小样本算法参数更新的性质。度量缩放为 mini-Imagenet 5-way 5-shot 分类任务的某些度量提供了高达 14% 的准确度改进。我们进一步提出了一种简单有效的方法来调节学习者的任务样本集,从而学习依赖于任务的度量空间。此外,我们提出并实证测试了一种基于辅助任务协同训练的实用端到端优化程序,以学习依赖于任务的度量原创 2021-10-08 16:43:46 · 598 阅读 · 0 评论 -
Large Margin Few-Shot Learning
Abstract小样本学习的关键问题是学习泛化。本文提出了一个大边距原则,以提高基于度量的方法在小样本学习中的泛化能力。为了实现这一目标,我们开发了一个统一的框架,通过增加具有较大边距距离损失函数的分类损失函数来学习更具鉴别性的度量空间。在图神经网络和原型网络两种最先进的小样本学习方法上的大量实验表明,我们的方法可以大大提高现有模型的性能。1 Introduction小样本学习[4]是一个非常具有挑战性的问题,因为它旨在从很少的标记例子中学习。由于数据的稀缺性,传统的端到端监督模型,如从零开始训练深度原创 2021-10-17 15:04:49 · 557 阅读 · 0 评论 -
Dynamic Metric Learning: Towards a Scalable Metric Space to Accommodate Multiple Semantic Scales
Abstract本文介绍了一个新的基本特征,即动态范围,从现实世界的度量工具到深度视觉识别。 在计量学中,动态范围是公制工具的基本质量,表明它可以灵活地适应各种尺度。 更大的动态范围提供更高的灵活性。 在视觉识别中,也存在多尺度问题。 不同的视觉概念可能有不同的语义尺度。 例如,“Animal”和“Plants”的语义尺度很大,而“Elk”的语义尺度要小得多。 在较小的语义尺度下,两种不同的麋鹿可能看起来完全不同。 然而,在较大的语义尺度下(例如,动物和植物),这两种麋鹿应该被衡量为相似。将动态范围引入原创 2021-10-27 15:22:54 · 2049 阅读 · 0 评论 -
Adaptive Cross-Modal Few-shot Learning
Chen Xing∗College of Computer Science,Nankai University, Tianjin, ChinaElement AI, Montreal, CanadaNegar RostamzadehElement AI, Montreal, CanadaBoris N. OreshkinElement AI, Montreal, CanadaPedro O. PinheiroElement AI, Montreal, CanadaAbstract基于度原创 2021-11-08 20:42:46 · 858 阅读 · 0 评论 -
Large Margin Prototypical Network for Few-shot Relation Classification with Fine-grained Features
Miao Fan, Yeqi Bai, Mingming Sun, Ping LiCognitive Computing LabBaidu ResearchNo.10 Xibeiwang East Road, Beijing, 10085, China10900 NE 8th St, Bellevue, WA 98004, USA{fanmiao,v_baiyeqi,sunmingming01,liping11}@baidu.com原创 2021-11-12 10:24:48 · 371 阅读 · 0 评论 -
Improved Prototypical Networks for Few-Shot Learning
1. IntroductionFSL任务通常包含三个集,a base set, a support set, 和 a novel set。FSL 的任务是从新集合中正确分类实例,其标签空间与支持集的标签空间相同,但与基集的标签空间不相交。 目前,FSL 仍然是一项具有挑战性的任务,因为很难从少数样本中揭示类别的分布信息。Fig. 1. 小样本任务的图解。 左列显示基集,每个类都有丰富的样本。 右列显示支持集和新集,其中标签空间与基集的标签空间不相交。 支持图像左侧的绿色条形反映了它们的类别代表性,条形越原创 2021-12-06 17:12:57 · 3156 阅读 · 3 评论