Infusing Knowledge into Large Language Models with Contextual Prompts

71 篇文章 9 订阅 ¥99.90 ¥299.90
26 篇文章 0 订阅
本文介绍了一种无需知识图谱的新型知识注入方法,通过在输入文本的上下文中生成提示,增强了大型语言模型在特定领域NLP任务的能力。实验显示这种方法在关系提取和尾部预测任务中提高了知识注入的效果。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Infusing Knowledge into Large Language Models with Contextual Prompts》的翻译。

使用上下文提示将知识注入大型语言模型

摘要

知识注入是一种很有前途的方法,可以增强特定领域NLP任务的大型语言模型,而不是从头开始对大型数据进行预训练模型。这些增强的LLM通常依赖于来自现有知识图谱的额外预训练或知识提示,这在许多应用中是不切实际的。相比之下,直接从相关文档中注入知识更具普遍性,减轻了对结构化知识图的需求,同时对通常在任何知识图谱中都找不到的实体也很有用。基于这一动机,我们提出了一种简单而通用的知识注入方法,通过在输入文本中的上下文中生成提示。我们的实验表明了我们的方法的有效性,我们通过探索微调LLM来评估该方法。

1 引言

2 相关工作

3 知识与长下文的融合

4 实验

结论

我们提出了一种将知识注入大型语言模型(LLM)的替代方法,该方法不假设知识图谱(KG)的存在。我们使用搜索索引来提供相关的句子,以便在微调知识注入过程中与输入提示一起用作上下文。关系提取和尾部预测任务的结果表明,使用上下文可以

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值