65 LlamaIndex中的响应合成器:简化LLM生成响应的过程

LlamaIndex中的响应合成器:简化LLM生成响应的过程

在LlamaIndex中,响应合成器(Response Synthesizer)是用于从LLM生成响应的工具,它使用用户查询和给定的一组文本块来生成响应。响应合成器的输出是一个Response对象。响应合成器的方法可以非常简单,例如迭代文本块,也可以非常复杂,例如构建树结构。其主要目的是简化在数据中使用LLM生成响应的过程。

概念

响应合成器在查询引擎中的使用通常是在从检索器检索节点之后,以及运行任何节点后处理器之后。它通过处理查询和文本块来生成响应,简化了生成响应的过程。

使用模式

单独使用响应合成器

你可以单独使用响应合成器来生成响应:

from llama_index.core.data_structs import Node
from llama_index.core.response_synthesizers import ResponseMode
from llama_index.core import get_response_synthesizer

response_synthesizer = get_response_synthesizer(
    response_mode=ResponseMode.COMPACT
)

response = response_synthesizer.synthesize(
    "query text", nodes=[Node(text="text"), ...]
)

在查询引擎中使用

更常见的是在创建索引后,在查询引擎中使用响应合成器:

query_engine = index.as_query_engine(response_synthesizer=response_synthesizer)
response = query_engine.query("query_text")

配置响应模式

响应合成器通常通过response_mode参数进行配置。LlamaIndex中已经实现了几种响应合成器:

  • refine:通过顺序遍历每个检索到的文本块来创建和细化答案。这会对每个节点/检索到的块进行单独的LLM调用。适用于更详细的答案。
  • compact(默认):类似于refine,但先压缩(连接)文本块,从而减少LLM调用次数。
  • tree_summarize:使用summary_template提示多次查询LLM,直到所有连接的块都被查询,生成多个答案,然后递归地将其作为块进行tree_summarize LLM调用,直到只剩下一个块和一个最终答案。适用于总结目的。
  • simple_summarize:将所有文本块截断以适应单个LLM提示。适用于快速总结,但可能会因截断而丢失细节。
  • no_text:仅运行检索器以获取将发送给LLM的节点,而不实际发送它们。可以通过检查response.source_nodes进行检查。
  • context_only:返回所有文本块的连接字符串。
  • accumulate:将查询应用于每个文本块,同时将响应累积到一个数组中。返回所有响应的连接字符串。适用于需要对每个文本块单独运行相同查询的情况。
  • compact_accumulate:与accumulate相同,但会对每个LLM提示进行“压缩”,并运行相同的查询。

自定义响应合成器

每个响应合成器继承自llama_index.response_synthesizers.base.BaseSynthesizer。基础API非常简单,这使得创建自己的响应合成器变得容易。你可以自定义在tree_summarize中每一步使用的模板,或者根据新的研究论文创建新的响应生成方法。

以下是每个响应合成器必须实现的__init__()函数和两个抽象方法。基本要求是处理查询和文本块,并返回字符串(或字符串生成器)响应。

from llama_index.core import Settings

class BaseSynthesizer(ABC):
    """Response builder class."""

    def __init__(
        self,
        llm: Optional[LLM] = None,
        streaming: bool = False,
    ) -> None:
        """Init params."""
        self._llm = llm or Settings.llm
        self._callback_manager = Settings.callback_manager
        self._streaming = streaming

    @abstractmethod
    def get_response(
        self,
        query_str: str,
        text_chunks: Sequence[str],
        **response_kwargs: Any,
    ) -> RESPONSE_TEXT_TYPE:
        """Get response."""
        ...

    @abstractmethod
    async def aget_response(
        self,
        query_str: str,
        text_chunks: Sequence[str],
        **response_kwargs: Any,
    ) -> RESPONSE_TEXT_TYPE:
        """Get response."""
        ...

使用结构化答案过滤

在使用“refine”或“compact”响应合成模块时,你可能会发现使用structured_answer_filtering选项是有益的。

from llama_index.core import get_response_synthesizer

response_synthesizer = get_response_synthesizer(structured_answer_filtering=True)

structured_answer_filtering设置为True时,我们的refine模块能够过滤掉与所提问题无关的任何输入节点。这对于涉及从外部向量存储中检索文本块的RAG-based Q&A系统特别有用。

使用自定义提示模板(带额外变量)

你可能希望自定义响应合成器中使用的提示,并在查询时添加额外变量。

你可以在get_response**kwargs中指定这些额外变量。例如:

from llama_index.core import PromptTemplate
from llama_index.core.response_synthesizers import TreeSummarize

# 注意:我们在这里添加了一个额外的tone_name变量
qa_prompt_tmpl = (
    "Context information is below.\n"
    "---------------------\n"
    "{context_str}\n"
    "---------------------\n"
    "Given the context information and not prior knowledge, "
    "answer the query.\n"
    "Please also write the answer in the tone of {tone_name}.\n"
    "Query: {query_str}\n"
    "Answer: "
)
qa_prompt = PromptTemplate(qa_prompt_tmpl)

# 初始化响应合成器
summarizer = TreeSummarize(verbose=True, summary_template=qa_prompt)

# 获取响应
response = summarizer.get_response(
    "who is Paul Graham?", [text], tone_name="a Shakespeare play"
)

通过使用响应合成器,你可以简化在数据中使用LLM生成响应的过程,并根据需要自定义响应生成的方式。希望这些信息对你有所帮助!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

需要重新演唱

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值