论文精读
文章平均质量分 94
杨过过儿
这个作者很懒,什么都没留下…
展开
-
论文阅读 -《N-ary Relation Extraction using Graph State LSTM》
跨句n元关系提取是在多个句子中检测n个实体间关系的自然语言处理任务。原创 2024-08-01 11:43:03 · 700 阅读 · 0 评论 -
论文阅读-《Cross-Sentence N-ary Relation Extraction with Graph LSTMs》
文章介绍了一种基于图长短期记忆网络的通用关系抽取框架,该框架能够处理跨越多个句子的n元关系抽取任务。与传统的单句二元关系抽取相比,这种框架可以整合句内和句间的多种依赖关系,如顺序、句法和话语关系,为实体提供了鲁棒的上下文表示。在精准医疗领域的两个重要应用场景中,该框架不仅在使用传统监督学习和远程监督方面表现出有效性,而且在多任务学习中显著提高了抽取准确率。跨句子抽取进一步扩展了知识库的规模。此外,对不同LSTM方法的深入分析为理解语言分析在提高抽取准确率中的作用提供了有价值的见解。原创 2024-07-31 17:07:07 · 931 阅读 · 0 评论 -
论文阅读-《Distant Supervision for Relation Extraction beyond the Sentence Boundary》
文章提出了一种新的方法,用于在远程监督下进行跨句子的关系抽取。这种方法利用图表示来整合依赖和话语关系,以统一建模句子内和跨句子的关系。通过从图中提取多条路径上的特征,提高了模型在处理语言变化和分析错误时的准确性和鲁棒性。实验结果表明,该方法在精准医疗领域的关系抽取任务中表现出色,使用较小的知识库和未标记的生物医学研究文章文本,就能学习到一个准确的抽取器。与现有方法相比,新方法在保持相似精确度的同时,能够提取出更多的关系,显示了跨句子关系的重要性和新方法的有效性。原创 2024-07-29 23:31:58 · 730 阅读 · 1 评论 -
论文精读-《GPT-NER: Named Entity Recognition via Large Language Models》
大规模语言模型(LLM)在上下文学习方面展现出卓越能力,能够通过少量示例快速适应新任务,尤其在机器翻译、问答和实体抽取等NLP领域取得显著成果。然而,LLM在NER任务上的表现仍落后于监督学习方法,因为NER的序列标记特性与LLM的文本生成形式存在差异。为此,文章提出了GPT-NER模型,它通过将NER任务转化为文本生成任务来解决这一问题,使用特殊标记来标识实体。GPT-NER还引入了自我验证策略,以减少LLM在实体识别上的过度自信倾向,有效缓解了幻觉问题。原创 2024-06-25 12:10:14 · 1152 阅读 · 0 评论