细粒度基础引用的学习——促进大型语言模型的可信性

大型语言模型(LLMs)在信息检索任务中表现出了令人印象深刻的能力,但它们依然面临着“幻觉”问题,即生成虚构或不准确的信息。这一问题不仅影响了模型的可靠性,还可能导致错误信息的传播。为了提高模型的可信性,研究者们提出了“归属大型语言模型”(Attributed LLMs),这些模型通过内嵌引用增强生成文本的可验证性。然而,当前的方法仍然存在引用质量不理想的问题,主要依赖于上下文学习(in-context learning),而且引用通常仅限于粗略的文档标识,使得用户难以进行细粒度的验证。

为了解决这些问题,Lei Huang等人提出了一种新的训练框架——FRONT,旨在教会LLMs生成精细的基础引用(Fine-gRained grOuNded ciTations)。该框架通过将模型输出与精细的支持引用结合,可以引导生成更为一致和可靠的响应,从而提高引用质量并促进细粒度验证。实验结果表明,使用LLaMA-2-7B模型时,该框架在引用质量上平均提高了14.21%,甚至超越了ChatGPT。

细粒度引用的重要性

细粒度引用的核心在于能够为每一项生成的信息提供具体的支持证据。这种引用方式不仅提高了信息的可靠性,也为用户提供了更为清晰的验证路径。研究表明,现有的归属系统通常只提供文档标识或URL,用户在面对长篇文档时,难以轻松定位到具体的支持内容。因此,细粒度引用的实现将大大提升用户在信息验证过程中的便捷性。

FRONT框架的设计意在解决这一挑战。该框架的第一步是从检索到的文档中选择支持引用,然后在生成过程中以这些引用为基础。这一过程可以显著降低幻觉的风险,并确保生成内容与真实来源的一致性。

FRONT框架的构建

FRONT框架由两大主要部分组成:自动数据生成管道和两阶段训练框架。

自动数据生成管道

数据生成管道的核心在于高效收集和处理高质量的引用数据。通过自动化数据构建流程,包括文档检索、相关性重新排序、归属回答生成及数据过滤,确保生成的数据既具信息性又具有可归属性。具体而言,对于给定的用户查询,管道首先从Sphere语料库中检索到前100个相关文档,随后利用RankVicuna模型重新排序,最终选择前5个最相关的文档。

这一过程不仅提高了数据的质量,也为后续的模型训练打下了坚实基础。值得注意的是,数据过滤模块会对生成的回答进行评估,以确保其信息性和归属性。

两阶段训练框架

FRONT框架的另一核心组成部分是两阶段训练框架。第一阶段是“基础引导生成”(Grounding Guided Generation,简称G3),在这一阶段,LLM首先从检索到的源文档中提取支持引用,然后基于这些引用生成回答。第二阶段是“一致性感知对齐”(Consistency-Aware Alignment,简称CAA),其目的是增强引用与生成内容之间的一致性。通过这种对比优化的方法,FRONT能够有效减少幻觉现象的出现,实现更高质量的引用生成。

实验与结果分析

在ALCE基准上进行的实验显示,FRONT在引用质量方面显著优于所有基线模型,尤其是在使用LLaMA-2-7B模型的情况下,平均提高了14.21%的引用质量。具体来看,在ASQA、ELI5和QAMPARI数据集上,FRONT分别超越了ChatGPT 3.32%、18.04%和21.28%。这一结果表明,FRONT不仅有效提升了模型的归属能力,而且在多种任务中展现出良好的通用性。

结论

综上所述,FRONT框架的提出为大型语言模型的引用生成提供了一种新的解决方案。通过引入细粒度引用机制,FRONT不仅提高了生成内容的可信度,还增加了用户验证的便捷性。未来的研究可以在此基础上进一步提升模型性能,并探索更复杂的动态检索机制,以适应更广泛的应用场景。

参考文献

  1. Huang, L., Feng, X., Ma, W., Gu, Y., Zhong, W., Feng, X., Yu, W., Peng, W., Tang, D., Tu, D., & Qin, B. (2024). Learning Fine-Grained Grounded Citations for Attributed Large Language Models. arXiv:2408.04568.
  2. Gao, et al. (2023). ALCE Benchmark: A Comprehensive Evaluation Framework for Attributed Text Generation.
  3. Zhu, et al. (2023). The Impact of Large Language Models on Information Retrieval.

  • 19
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

步子哥

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值