RAG 系统中的偏差是什么?

检索增强生成 (RAG) 在减少模型幻觉和增强大型语言模型 (LLM)的领域特定知识库方面已获得广泛认可。通过外部数据源佐证大型语言模型生成的信息,有助于保持模型输出的新鲜度和真实性。然而,最近在 RAG系统中的发现,突显了基于 RAG 的大型语言模型的问题,例如 RAG 系统中偏差的引入。

长期以来,大型语言模型中的偏差一直是讨论的话题,但由于 RAG 的使用而产生的额外开销值得关注。本文探讨了人工智能的公平性、RAG 引入的不同公平性风险、这种情况发生的原因、可以采取哪些措施来减轻风险,以及对未来的展望。

RAG 系统中偏差的概述

RAG是一种人工智能技术,通过整合外部来源来增强大型语言模型。它允许模型对其产生的信息进行事实核查或校对。采用 RAG 驱动的人工智能模型被认为更可信和更新,因为引用外部来源增加了数据的可信度。这也可以防止模型产生过时的信息。RAG 系统的核心功能取决于外部数据集、其质量以及它们所受到的审查程度。如果 RAG 系统引用的外部数据集未经开发者消除偏差和刻板印象,则可能会嵌入偏差。

人工智能的伦理考量

人工智能正在迅速发展,这使得一些关键的伦理考量成为开发者必须解决的首要问题,以确保其负责任的开发和部署。这种发展引起了人们对 RAG 系统中常常被忽视的伦理人工智能概念和算法公平性的关注。

人工智能的公平性

自从人工智能驱动的聊天机器人问世以来,人工智能公平性 一直受到密切关注。例如,谷歌的 Gemini 产品因 过度补偿种族偏差 而受到批评,具体表现为过度展示人工智能生成的有色人种图像,并试图解决历史上存在的种族差异问题,但这最终导致了对模型的意外过度纠正。此外,减轻诸如宗教和性别等明显偏差的尝试已十分广泛,而鲜为人知的偏差则往往被忽视。研究人员已努力减少人工智能中固有的偏差,但他们对在其他处理阶段累积的偏差关注不足。

RAG 导致的不公平性

本质上,RAG 使用外部来源来核实大型语言模型产生的信息。这个过程通常会增加更有价值和最新的信息。但是,如果外部来源向 RAG 提供有偏差的信息,则可能会进一步强化原本会被认为是不道德的输出。从外部来源检索知识可能会无意中引入不需要的有偏差的信息,从而导致大型语言模型产生歧视性输出。

这种情况为何发生?

RAG 中的偏差源于用户缺乏公平性意识,以及缺少消除偏差信息的协议。人们普遍认为 RAG 可以减轻错误信息,这导致对其产生的偏差的忽视。人们直接使用外部数据源,而没有检查是否存在偏差问题。公平性意识的缺乏导致一定程度的偏差存在,即使在经过审查的数据集中也是如此。

RAG 用户对公平性的认知水平链接:来源

最近的研究 从用户对公平性的三个认知层面 بررسی了 RAG 的公平性风险,并揭示了检索前和检索后增强方法的影响。测试发现,RAG 可能会在无需微调或重新训练的情况下损害公平性,并且对抗者可以利用 RAG 以低成本引入偏差,且被检测到的可能性非常低。研究结论是,目前的一致性调整方法不足以确保基于 RAG 的大型语言模型的公平性。

缓解策略

有几种策略可以解决基于检索增强生成 (RAG) 的大型语言模型 (LLM) 中的公平性风险:

  • 偏差感知检索机制:通过使用基于公平性指标的来源来过滤或重新排序文档,从而减少暴露于有偏差或歪曲的信息。这些机制可以使用预训练的偏差检测模型或自定义排名算法来优先考虑平衡的视角。
  • 公平性感知摘要技术:通过提炼检索文档中的要点来确保中立性和代表性。它们减轻了误传,防止遗漏边缘化观点,并使用公平性驱动的约束来纳入不同的视角。
  • 上下文感知去偏模型:通过分析检索到的内容中是否存在问题语言、刻板印象或歪曲叙事,从而动态地识别和消除偏差。它们可以使用公平性约束或学习到的伦理准则来实时调整或调整输出。
  • 用户干预工具:允许在生成之前手动审查检索到的数据,从而使用户能够标记、修改或排除有偏差的来源。这些工具通过提供对检索过程的透明度和控制,来增强公平性监管。

链接:来源

最新研究 探索了通过控制嵌入器来减轻 RAG 中偏差的可能性。嵌入器指的是将文本数据转换为数值表示(称为 embeddings,即嵌入)的模型或算法。这些嵌入捕获了文本的语义含义,RAG 系统使用它们从知识库中获取相关信息,然后再生成响应。考虑到这种关系,研究表明,反向偏置嵌入器可以消除整个 RAG 系统的偏差

此外,他们发现,在一个语料库上表现最佳的嵌入器,对于语料库偏差的变化仍然是最优的。最后,研究人员得出结论,大多数消除偏差的努力都集中在 RAG 系统的检索过程上,正如之前讨论的那样,这是不够的。

结论

基于 RAG 的大型语言模型相对于传统的基于人工智能的大型语言模型具有显著优势,并在很大程度上弥补了后者的缺点。但正如其引入的公平性风险所表明的那样,它并非万能药。虽然 RAG 有助于减轻幻觉并提高领域特定准确性,但它也可能无意中放大外部数据集中存在的偏差。即使是精心策划的数据也无法完全确保公平性调整,这突显了对更强大的缓解策略的需求。RAG 需要更好的安全保障机制来防止公平性降低,其中摘要和偏差感知检索在降低风险方面发挥着关键作用。

### RAG Base框架介绍 RAG(Retrieval-Augmented Generation)Base框架是一种结合了检索增强生成的方法,旨在提高自然语言处理任务中的准确性和上下文感知能力[^4]。该方法通过引入外部知识源来弥补传统生成模型可能存在的不足之处。 #### 构建原理 RAG框架的核心在于将检索系统与生成模型相融合。具体来说,在接收到用户请求之后: - **索引阶段**:预先建立一个大规模文档数据库作为背景知识库; - **检索阶段**:当有新的查询到来时,先从上述已有的知识库中找到最相关的片段集合; - **生成阶段**:再把这些相关片段连同原始问题一起送入预训练好的大型语言模型里进行最终的回答合成工作; 这样的设计不仅使得机器能给出更加精准且与时俱进的答案,同时也有效减少了因内部参数量有限而导致的信息偏差现象的发生概率[^1]。 ```python from transformers import RagTokenizer, RagRetriever, RagSequenceForGeneration tokenizer = RagTokenizer.from_pretrained("facebook/rag-token-nq") retriever = RagRetriever.from_pretrained("facebook/rag-token-nq", index_name="exact", use_dummy_dataset=True) model = RagSequenceForGeneration.from_pretrained("facebook/rag-token-nq", retriever=retriever) input_dict = tokenizer.prepare_seq2seq_batch( ["What is the capital of France?"], return_tensors="pt" ) outputs = model.generate(input_ids=input_dict["input_ids"], attention_mask=input_dict["attention_mask"]) print(tokenizer.batch_decode(outputs, skip_special_tokens=True)) ``` 这段Python代码展示了如何加载并运行基于Transformers库的一个简单版本的RAG模型实例。这里选择了Facebook官方提供的`rag-token-nq`预训练权重文件来进行演示。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值