NER & Slot Filling
文章平均质量分 73
NLP NER或者SF相关论文或者技术分享
卡比比比比
北邮通信工程本科,人工智能学院模式识别实验室硕士在读,NLP方向,主要研究对话方面的文本分类,NER,Slot filling等。
展开
-
【ACL2020】NAT: Noise-Aware Training for Robust Neural Sequence Labeling
原文链接:https://arxiv.org/abs/2005.07162NAT acl2020源码链接:https://github.com/mnamysl/nat-acl20201Intro对于有噪输入的序列标注问题,本文提出了2种Noise-Aware Training (NAT) 方法来提高有噪输入的序列标注任务系统的准确性和鲁棒性。作者还提出了模拟真实噪声的引入。实验部分,作者使用了原始数据及其变体,这些数据都被真实的OCR错误和拼写错误干扰。在英语和德语命名实体识别基准上的广泛实验证实,原创 2022-03-24 10:11:57 · 235 阅读 · 0 评论 -
【coling 2020】Attentively Embracing Noise for Robust Latent Representation in BERT
原文链接:https://aclanthology.org/2020.coling-main.311.pdfintro本文针对ASR转化成文本之后的文本分类任务进行鲁棒性研究。作者基于EBERT进行优化,EBERT比传统bert的优点在于后者只使用输入的第一个【CLS】token生成输入的表征,其余的均丢弃,可是当文本带噪时单一的【CLS】token作为表征容易受到剧烈影响。Ebert则把丢弃的token作为额外信息的来源,与第一个【CLS】token共同生成输入表征,更具鲁棒性。作者对EBERT的原创 2022-03-24 10:12:53 · 362 阅读 · 0 评论 -
Are We NER Yet? Measuring the Impact of ASR Errors on Named Entity Recognition in Spontaneous Con
贡献在本文中,我们研究了与识别命名实体的下游任务相关的 ASR-NLP 差距的真实大小。 使用基准和内部数据集(他们自己做的数据集)的组合,我们展示了最先进的语言模型如何无法发现自发人类对话记录中命名实体主要类别的实体跨度(分析了问题的原因)。我们的第二个贡献是引入了一种新的 ASR 和 NER 模型联合评估方法。 我们观察到传统的 NLP 指标不适合衡量模型在 ASR 转录本上的性能。 受 DARPA 消息理解会议(DARPA’s Message Understanding Conferences)原创 2022-03-24 10:13:20 · 373 阅读 · 0 评论 -
【ACL 2020】《 Coach: A Coarse-to-Fine Approach for Cross-domain Slot Filling》阅读笔记
【ACL 2020】《 Coach: A Coarse-to-Fine Approach for Cross-domain Slot Filling》阅读笔记英文标题:Coach: A Coarse-to-Fine Approach for Cross-domain Slot Filling中文翻译:Coach: 由粗到精的跨域槽填充原文链接: https://www.aclweb.org/anthology/2020.acl-main.3.pdf.文章目录【ACL 2020】《 Coach: A原创 2021-05-16 10:43:25 · 427 阅读 · 0 评论