书生·浦语 第三次作业

第三期任务:

介绍了RAG的基础知识和原理架构,然后详细介绍了RAG的工作流程和向量数据库的优化方法。通过实例演示了RAG技术在问答系统中的应用,并解决了大模型处理知识密集任务时的各种挑战。最后,强调了向量数据库的重要性和优化方法,以及不断更新向量数据库以适应新知识的能力。

介绍了教程的目录

介绍了InternLM2和茴香豆RAG助手输出的一些区别,以及相关性方面的能力区别

简要介绍了一下RAG技术:解决LLMs在处理知识密集型任务时可能遇到的挑战。提供更准确的回答、降低成本、实现外部记忆。

主要的应用领域在:

问答系统
文本生成
信息检索
图片描述

介绍了RAG的工作原理:

索引:将知识源( 如文档或网页 )分割成chunk,编码成向量,并存储在向量数据库中。

检索:接收到用户的问题后,将问题也编码成向量,并在向量数据库中找到与之最相关的文档块( top-k chunks )

将检索到的文档块与原始问题一起作为提示( prompt )输入到LLM中,生最终的回答

 

向量数据库的构建和使用:

作业1:

作业2:

 过程:

 

下载茴香豆官方仓库

 修改好厚的配置文件

用已下载模型的路径替换 /root/huixiangdou/config.ini 文件中的默认模型,需要修改 3 处模型地址

下载 Huixiangdou 语料:

过程中以为是操作失误造成报错,后来发现是问题的不规范导致的,造成了程序的报错

作业2结果:

问题与回答,

同时告诉我可以在 [WeChat 群](resource/figures/wechat.jpg) 中尝试 AI 助手内部,并使用 [OpenXLab](https://openxlab.org.cn/apps/detail/tpoisonooo/huixiangdou-web) 的 Web 门户,无需编写任何代码即可构建自己的知识助手,使用 WeChat 和 Feishu 群组。, ['README.md']

给出了茴香豆的技术报告,同时,链接还直接将我引向了茴香豆的技术报告

第二个问题给出了在微信群上的部署过程,基本实现了问题,同时步骤合理且层次清晰

简要总结:在InternLM Studio上部署茴香豆技术助手,首先创建微信小程序,然后通过微信开放平台接口与微信群对接,实现在微信群中提供技术支持。这样用户可以在微信群内方便地使用茴香豆的技术助手服务,提升沟通效率和技术交流便捷性。

第三个问题助手判断问题与所需主题和资料无关,故而助手报出错误,并且拒绝回答

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值