![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
information extraction
文章平均质量分 95
各种/通用信息抽取相关论文
小小帅AIGC
这个作者很懒,什么都没留下…
展开
-
information extraction—RexUIE通用信息提取,基于显式模式指示器的递归方法,细节理解与原文阅读:RexUIE: A Recursive Method
通用信息提取(UIE)是一个备受关注的领域,因为不同的目标、异构结构和特定需求的模式都带来了挑战。然而,以前的工作只是通过统一少数任务(如命名实体识别(NER)和关系提取(RE))取得了有限的成功,任务还不足以成为真正的通用信息提取模型,尤其是在提取其他通用模式(如四元和五元)时。此外,这些模型使用的是隐式结构模式指示器,这可能会导致类型之间的链接不正确,从而阻碍模型在低资源场景中的泛化和性能。在本文中,我们用一种正式的表述方式重新定义了真实的 UIE,它几乎涵盖了所有的提取模式。原创 2024-06-26 12:40:41 · 1096 阅读 · 0 评论 -
information extraction—GliNER 多任务(通用信息提取的轻量级模型),细节理解与原文阅读:GliNER multi-task: Generalist Lightweight
信息提取任务需要准确、高效和可泛化的模型。经典的有监督深度学习方法可以实现所需的性能,但它们需要大型数据集,而且适应不同任务的能力有限。另一方面,大型语言模型(LLM)具有良好的泛化能力,这意味着它们可以根据用户要求适应许多不同的任务。但是,大型语言模型的计算成本很高,而且往往无法生成结构化的输出结果。在本文中,我们将介绍一种新型的 GLiNER 模型,它可以用于各种信息提取任务,同时又是一种小型编码器模型。原创 2024-06-25 11:20:52 · 1086 阅读 · 0 评论 -
information extraction—SeqGPT(用于开放域序列理解的大型语言模型),细节理解与原文阅读:SeqGPT: An Out-of-the-box Large Language
大型语言模型(LLM)在开放域 NLP 任务中表现出了令人印象深刻的能力。然而,对于输出和输入格式总是受到限制的自然语言理解(NLU)任务来说,大型语言模型有时过于自由。它们在 NLU 任务中的表现与提示或演示有很大关系,而且在执行几项有代表性的 NLU 任务(如事件提取和实体键入)时表现不佳。为此,我们提出了 SeqGPT,这是一个开源自回归模型,专门针对开放域自然语言理解进行了增强。我们用两个原子任务来表达所有的 NLU 任务,原创 2024-06-25 11:20:37 · 1360 阅读 · 0 评论