第三节课《香豆:搭建你的 RAG 智能助理》

 一、笔记

RAG搜索引擎,用户输入就是搜索内容。

RAG三个部分:index、retrieval、generation。

将检索内容给和原问题一起作为提示prompt输入到LLM中

数据存储:将数据通过其他模型转换为固定长度的向量表示。

相似性检索:查询向量和数据库存储向量余弦相似性度量。

向量表示优化:与模型结果好坏息息相关

无关数据出现幻觉。

传统问答:提问query-->大模型LLM-->回答answer

RAG:提问query-->向量化embedding--->搜索indexing-->检索retieval->

            问题+检索结果作为提示词prompts-->生成generation-->回答answer

不断更新向量数据库,就能不断的处理新的数据。

Naive RAG:只有索引、检索、生成。运用在问答系统和信息检索。

Advanced RAG:检索前后都进行增强,检索的问题路由扩展,检索到的信息进行重排序总结融合,运用在摘要生成和内容推荐。

Modular RAG: 将RAG基础部分和后续功能进行模块化,根据业务进行定制,完成多模态任务、对话系统等更高级的任务。

提升向量库的质量:

        嵌入优化:增强嵌入性能

        索引优化:提升索引质量

查询优化:更适应查询

上下文管理:减少冗余信息,提升大模型效率。

检索:

        迭代检索:根据检索结果多次迭代检索知识,提供知识基础。

        递归检索:改进检索结果的深度和相关性,

        自适应检索:

LLM:定向微调、针对性微调。

 

微调、提示工程、RAG

任务对外部知识需求

任务对模型适配度的需求

提示工程:对外部知识和适配度都比较差,不能适应新的知识,同时对特定专业知识也很难专业的回复

微调:对外部数据需求不高,但对模型任务适配度很高。

RAG:  对外部数据需求高,但对模型任务适配度不高。

融合三种方法:

检索阶段、生成阶段分开评价

茴香豆

无需训练。

非有效数据,无法分析真实意图,结合LLM和RAG,提取有效信息

开源免费、本地部署、远端部署

知识库:实时更新的专业领域数据,多种文件格式,设置接受处理范围。

前端:回答平台

大模型:本地(书生浦语、千亿千问)、远端API

预处理:输入筛选,转换问询

拒答工作流:分析、比较相关性得分

回答工作流:相关性得分达到,开始回答

LLM scroing阈值设定问答助手回答的是话痨还是严谨技术专家。

保证回答内容准确性。

本地或者网络检索。

多重评分回答问题严谨性。

二、网页茴香豆

 

这里面很多文章应该是超过长度限制了,报错了几次

huixiangdou/repodir/huixiangdou/resource/HuixiangDou.pdf---

huixiangdou/repodir/huixiangdou/docs/add_wechat_accessibility_zh.md--

huixiangdou/repodir/huixiangdou/docs/add_wechat_group_zh.md---

  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值