LlamaIndex中的响应合成器:简化LLM生成响应的过程
在LlamaIndex中,响应合成器(Response Synthesizer)是用于从LLM生成响应的工具,它使用用户查询和给定的一组文本块来生成响应。响应合成器的输出是一个Response对象。响应合成器的方法可以非常简单,例如迭代文本块,也可以非常复杂,例如构建树结构。其主要目的是简化在数据中使用LLM生成响应的过程。
概念
响应合成器在查询引擎中的使用通常是在从检索器检索节点之后,以及运行任何节点后处理器之后。它通过处理查询和文本块来生成响应,简化了生成响应的过程。
使用模式
单独使用响应合成器
你可以单独使用响应合成器来生成响应:
from llama_index.core.data_structs import Node
from llama_index.core.response_synthesizers import ResponseMode
from llama_index.core import get_response_synthesizer
response_synthesizer = get_response_synthesizer(
response_mode=ResponseMode.COMPACT
)
response = response_synthesizer.synthesize(
"query text", nodes=[Node(text="text"), ...]
)
在查询引擎中使用
更常见的是在创建索引后,在查询引擎中使用响应合成器:
query_engine = index.as_query_engine(response_synthesizer=response_synthesizer)
response = query_engine.query("query_text")
配置响应模式
响应合成器通常通过response_mode
参数进行配置。LlamaIndex中已经实现了几种响应合成器:
- refine:通过顺序遍历每个检索到的文本块来创建和细化答案。这会对每个节点/检索到的块进行单独的LLM调用。适用于更详细的答案。
- compact(默认):类似于refine,但先压缩(连接)文本块,从而减少LLM调用次数。
- tree_summarize:使用
summary_template
提示多次查询LLM,直到所有连接的块都被查询,生成多个答案,然后递归地将其作为块进行tree_summarize
LLM调用,直到只剩下一个块和一个最终答案。适用于总结目的。 - simple_summarize:将所有文本块截断以适应单个LLM提示。适用于快速总结,但可能会因截断而丢失细节。
- no_text:仅运行检索器以获取将发送给LLM的节点,而不实际发送它们。可以通过检查
response.source_nodes
进行检查。 - context_only:返回所有文本块的连接字符串。
- accumulate:将查询应用于每个文本块,同时将响应累积到一个数组中。返回所有响应的连接字符串。适用于需要对每个文本块单独运行相同查询的情况。
- compact_accumulate:与accumulate相同,但会对每个LLM提示进行“压缩”,并运行相同的查询。
自定义响应合成器
每个响应合成器继承自llama_index.response_synthesizers.base.BaseSynthesizer
。基础API非常简单,这使得创建自己的响应合成器变得容易。你可以自定义在tree_summarize
中每一步使用的模板,或者根据新的研究论文创建新的响应生成方法。
以下是每个响应合成器必须实现的__init__()
函数和两个抽象方法。基本要求是处理查询和文本块,并返回字符串(或字符串生成器)响应。
from llama_index.core import Settings
class BaseSynthesizer(ABC):
"""Response builder class."""
def __init__(
self,
llm: Optional[LLM] = None,
streaming: bool = False,
) -> None:
"""Init params."""
self._llm = llm or Settings.llm
self._callback_manager = Settings.callback_manager
self._streaming = streaming
@abstractmethod
def get_response(
self,
query_str: str,
text_chunks: Sequence[str],
**response_kwargs: Any,
) -> RESPONSE_TEXT_TYPE:
"""Get response."""
...
@abstractmethod
async def aget_response(
self,
query_str: str,
text_chunks: Sequence[str],
**response_kwargs: Any,
) -> RESPONSE_TEXT_TYPE:
"""Get response."""
...
使用结构化答案过滤
在使用“refine”或“compact”响应合成模块时,你可能会发现使用structured_answer_filtering
选项是有益的。
from llama_index.core import get_response_synthesizer
response_synthesizer = get_response_synthesizer(structured_answer_filtering=True)
当structured_answer_filtering
设置为True时,我们的refine模块能够过滤掉与所提问题无关的任何输入节点。这对于涉及从外部向量存储中检索文本块的RAG-based Q&A系统特别有用。
使用自定义提示模板(带额外变量)
你可能希望自定义响应合成器中使用的提示,并在查询时添加额外变量。
你可以在get_response
的**kwargs
中指定这些额外变量。例如:
from llama_index.core import PromptTemplate
from llama_index.core.response_synthesizers import TreeSummarize
# 注意:我们在这里添加了一个额外的tone_name变量
qa_prompt_tmpl = (
"Context information is below.\n"
"---------------------\n"
"{context_str}\n"
"---------------------\n"
"Given the context information and not prior knowledge, "
"answer the query.\n"
"Please also write the answer in the tone of {tone_name}.\n"
"Query: {query_str}\n"
"Answer: "
)
qa_prompt = PromptTemplate(qa_prompt_tmpl)
# 初始化响应合成器
summarizer = TreeSummarize(verbose=True, summary_template=qa_prompt)
# 获取响应
response = summarizer.get_response(
"who is Paul Graham?", [text], tone_name="a Shakespeare play"
)
通过使用响应合成器,你可以简化在数据中使用LLM生成响应的过程,并根据需要自定义响应生成的方式。希望这些信息对你有所帮助!