论文
文章平均质量分 92
hithithithithit
王牌飞行员会损失约11架战机。
展开
-
低资源场景下的命名实体识别
低资源下的命名实体识别主要分为两个方面,一种是in-domain下的N-way-K-shot类型的少样本,一种是cross-domain下现在资源丰富的sourc-domain上进行微调,之后再迁移到低资源的target-domain进一步微调。基于prompt的方法在少样本分类的任务中取得了不错的效果(这里的效果不错一定程度上指的是基于微调的方法需要修改模型的结构来增加新的预测类别,而prompt只需要加上新的回答词即可,因为prompt是基于LM head来预测的)。但是在token-level的任务中原创 2022-11-16 22:00:05 · 2058 阅读 · 0 评论 -
NAACL2022 对比学习论文
目录Long papersshort papersIndustry Track[1] HiURE: Hierarchical Exemplar Contrastive Learning for Unsupervised Relation Extraction[2] CONFIT: Toward Faithful Dialogue Summarization with Linguistically-Informed Contrastive Fine-tuning[3] Cross-modal Contrati原创 2022-08-16 14:08:46 · 772 阅读 · 0 评论 -
NAACL2022信息抽取论文分类
目录1、Named Entity Recognition2、Relation Extraction3、Event Extraction4、Universal Information Extraction[1] Robust Self-Augmentation for Named Entity Recognition with Meta Reweighting[2] ITA: Image-Text Alignments for Multi-Modal Named Entity Recognition[3] D原创 2022-08-13 15:05:04 · 1327 阅读 · 2 评论 -
NAACL2022中Prompt相关论文分类
目录1、信息抽取2、prompt Method3、文本生成4、原理5、知识发现6、少样本7、Biases[1] Template-free Prompt Tuning for Few-shot NER[2] Automatic Multi-Label Prompting: Simple and Interpretable Few-Shot Classification[3] Zero-Shot Event Detection Based on Ordered Contrastive Learning and原创 2022-08-13 14:40:09 · 587 阅读 · 0 评论 -
Unified Structure Generation for Universal Information Extraction
一、什么是注意力机制我们对输入的多个值,这些值本身带有的属性称之为(理解的时候可参考数据库中的),进行查询(即有自主性的选择,例如倾向于选择更大的值),然后对中的值进行选择得到了最符合的一个值。通俗理解来说就是通过和之间的交互形成了注意力汇聚,注意力对进行选择得到一个输出。注意上文我们提出的注意力汇聚这个词,在某些情况下,我们直接用注意力汇聚这个名词代表q,k之间地交互。二、注意力汇聚1.平均注意力汇聚:我们有这组训练数据,在预测时对所有的预测值做对训练集中的y做平均值计算。即:原创 2022-04-21 15:40:20 · 2257 阅读 · 0 评论 -
Unifying Offline and Online Multi-graph Matching via Finding Shortest Paths on Supergraph
Abstract 本文从离线批处理模式和在线模型两方面考虑了多图匹配问题。我们探讨了成对匹配的循环一致性概念,并将问题表述为在超图上寻找最优组合路径,其顶点是图,边权是关于一致性和亲和力的得分函数。通过理论研究,我们证明了离线和在线超图上的MGM分别可以转化为求所有成对最短路径和单源最短路径。我们采用Floyd算法和最短路径快速算法,来有效地找到最优路径。大量的实验结果表明,我们的方法超越了最先进的MGM方法。Introduction GM意指给定一个亲和性模型,找到...原创 2021-12-12 22:18:42 · 358 阅读 · 0 评论 -
BioBERT: a pre-trained biomedical language representation model for biomedical text mining
Abstract Motivation:词汇分布从一般领域语料库转移到生物医学语料库,将自然语言处理的进步直接应用于生物医学文本挖掘往往会导致结果不理想。在本文中,我们研究了最近引入的预训练语言模型BERT如何适用于生物医学语料库。 Result:BioBERT在以下三种具有代表性的生物医学文本挖掘任务上的性能明显优于它们:生物医学命名实体识别(F1评分提高0.62%)、生物医学关系提取(F1评分提高2.80%)和生物医学问题回答(MRR提高12.24%)。(这里未给出B...原创 2021-11-28 20:55:59 · 1744 阅读 · 0 评论 -
SciFive: a text-to-text transformer model for biomedical literature
一、SciFive: a text-to-text transformer model for biomedical literature Abstract: Motivation:基于C4(Colossal Clean Crawled Corpus)语料的T5(Text-to-Text Transfer Transformer)模型在一系列相关的NLP任务中达到了SOTA模型。过去十年,生物医药NLP任务变得越来越重要。本文介绍了基于T5的模型,并已被成...原创 2021-11-27 23:11:43 · 1713 阅读 · 1 评论 -
Recent advances in biomedical literature mining
Abstract 随着生物医药领域的文献逐渐增加,隐藏在其中的领域知识对医药领域的研究和应用至关重要。这对生物医药文献挖掘提出了新的要求。生物医药信息学(BMI)社区关注具体的应用场景,计算机科学(CS)追求性能和泛化能力。本文旨在回顾这个领域的进展并激发新的研究方向。Conclusions 这个领域的关键任务:生物医学NER和规范化,文本分类,关系抽取,生物途径抽取,假设生成。介绍了应用场景并强调了深度学习模型的潜力。...原创 2021-11-04 13:49:16 · 786 阅读 · 0 评论