论文
文章平均质量分 55
葫芦娃啊啊啊啊
这个作者很懒,什么都没留下…
展开
-
Novel Slot Detection: A Benchmark for Discovering Unknown Slot Types in the Dialogue System
2021ACL论文精读:Novel Slot Detection: A Benchmark for Discovering Unknown Slot Types in the Task-Oriented Dialogue System对话系统,新槽检测,自然语言理解原创 2022-07-02 18:07:18 · 170 阅读 · 0 评论 -
TD-GIN: Token-level Dynamic Graph-Interactive Network for Multiple Intent Detection and Slot Filling
TD-GIN: Token-level Dynamic Graph-Interactive Network for JointMultiple Intent Detection and Slot Filling槽填充和多意图识别、文本分类,序列标记,图神经网络,图注意力网络原创 2022-05-20 18:46:26 · 190 阅读 · 0 评论 -
用常识知识增强端到端对话系统:Augmenting End-to-End Dialogue Systems with Commonsense Knowledge
对话系统,信息,响应,断言,常识,知识,常识知识库,LSTM,最大池化,attention原创 2022-04-01 22:18:53 · 507 阅读 · 0 评论 -
对话系统-口语理解-意图检测和槽填充:A Co-interactive Transformer for joint Slot Filling and Intent Detection
论文题目:A Co-interactive Transformer for joint Slot Filling and Intent Detection原论文地址PyTorch代码论文精简版-PPT1.背景意图检测和槽填充是构建口语理解(SLU)系统的两个主要任务。以前的研究要么用多任务框架隐式地对两个任务进行建模{\color{Red}多任务框架隐式地对两个任务进行建模}多任务框架隐式地对两个任务进行建模,要么只考虑从意图到槽的单个信息流{\color{Red}只考虑从意图到槽的单个信息流原创 2021-12-26 12:43:21 · 1686 阅读 · 0 评论 -
对话系统-自然语言理解-联合意图检测和槽填充:A Co-interactive Transformer for Joint Slot Filling and Intent Detection
论文题目 A Co-interactive Transformer for Joint Slot Filling and Intent Detection下载地址论文地址论文精读看这篇官方PyTorch代码原创 2021-12-26 12:31:35 · 890 阅读 · 0 评论 -
口语理解-联合多意图检测和槽填充GL-GIN:Non-Autoregressive Model for Joint Multiple Intent Detection and Slot
GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple Intent Detection and Slot口语理解联合多意图检测和槽填充图神经网络LSTMAttention自回归模型对话系统自然语言理解口语理解原创 2021-12-13 18:32:26 · 1724 阅读 · 0 评论 -
论文精读 清华ERNIE:Enhanced Language Representation with Informative Entities
ERNIE原论文背景在大规模语料库上预训练的BERT等语言表示模型可以很好地从纯文本中捕获丰富的语义模式,并进行微调以提高各种 NLP 任务的性能。然而,现有的预训练语言模型很少考虑合并知识图谱,它可以提供丰富的结构化知识事实以更好地理解语言。作者认为 KG 中的实体信息可以通过外部知识增强语言表示。在本文中,通过大规模文本语料库和 KG 来训练增强的语言表示模型(ERNIE),该模型可以同时充分利用词汇、句法和知识信息。预训练模型可以从文本中捕获丰富的语义信息,使多种 NLP 任务受益,可以分为以原创 2021-12-10 10:37:22 · 1248 阅读 · 0 评论 -
ERNIE: Enhanced Language Representation with Informative Entities中文
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录摘要引言相关工作方法论实验总结二、使用步骤1.引入库2.读入数据总结摘要在大规模语料库上预训练的BERT等语言表示模型可以很好地从纯文本中捕获丰富的语义信息,并进行微调以提高各种 NLP 任务的性能。然而,现有的预训练语言模型很少考虑合并知识图谱,它可以提供丰富的结构化知识事实以更好地理解语言。作者认为 KG 中的实体信息可以通过外部知识增强语言表示。在本文中,通过大规模文本语料库和 KG 来训练增强的语言表示模型(ERNIE翻译 2021-12-04 16:49:58 · 350 阅读 · 0 评论