LlamaIndex --- Evaluating

Evaluating

概念解释

Evaluating(评估):在LLM(大型语言模型)开发中,评估和基准测试是至关重要的概念。为了提高LLM应用(如RAG、代理)的性能,必须有一种方法来衡量其表现。

Response Evaluation(响应评估):评估生成的响应是否与检索到的上下文匹配,是否与查询匹配,是否与参考答案或指南匹配。

Retrieval Evaluation(检索评估):评估检索到的来源是否与查询相关。

响应评估

响应评估的一个简单示例是评估单个响应的忠实度(Faithfulness),即响应是否与上下文一致,是否没有幻觉(hallucinations)。

示例代码

from llama_index.core import VectorStoreIndex
from llama_index.llms.openai import OpenAI
from llama_index.core.evaluation import FaithfulnessEvaluator

# 创建LLM
llm = OpenAI(model="gpt-4", temperature=0.0)

# 构建索引
vector_index = VectorStoreIndex(...)

# 定义评估器
evaluator = FaithfulnessEvaluator(llm=llm)

# 查询索引
query_engine = vector_index.as_query_engine()
response = query_engine.query(
    "What battles took place in New York City in the American Revolution?"
)
eval_result = evaluator.evaluate_response(response=response)
print(str(eval_result.passing))

在这个示例中,响应包含响应本身和生成响应的来源;评估器比较它们,并确定响应是否忠实于来源。

检索评估

检索评估的一个简单示例是评估单个检索:

示例代码

from llama_index.core.evaluation import RetrieverEvaluator

# 定义检索器(例如从索引中)
retriever = ...

retriever_evaluator = RetrieverEvaluator.from_metric_names(
    ["mrr", "hit_rate"], retriever=retriever
)

retriever_evaluator.evaluate(
    query="query", expected_ids=["node_id1", "node_id2"]
)

这个示例比较了为查询检索到的内容与预期应检索到的节点集。

在实际应用中,通常需要评估一批检索;可以参考检索评估模块指南了解如何进行批量评估。

相关概念

如果应用中调用了托管的远程LLM,可能还对分析应用的成本感兴趣。

总结

通过本课程,我们详细讲解了Evaluating的概念及其在LlamaIndex中的应用。我们介绍了响应评估和检索评估的基本步骤和示例代码。这些内容将帮助学生更好地理解和应用LlamaIndex中的评估功能。

  • 10
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

需要重新演唱

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值