第三期任务:
介绍了RAG的基础知识和原理架构,然后详细介绍了RAG的工作流程和向量数据库的优化方法。通过实例演示了RAG技术在问答系统中的应用,并解决了大模型处理知识密集任务时的各种挑战。最后,强调了向量数据库的重要性和优化方法,以及不断更新向量数据库以适应新知识的能力。
介绍了教程的目录
介绍了InternLM2和茴香豆RAG助手输出的一些区别,以及相关性方面的能力区别
简要介绍了一下RAG技术:解决LLMs在处理知识密集型任务时可能遇到的挑战。提供更准确的回答、降低成本、实现外部记忆。
主要的应用领域在:
问答系统
文本生成
信息检索
图片描述
介绍了RAG的工作原理:
索引:将知识源( 如文档或网页 )分割成chunk,编码成向量,并存储在向量数据库中。
检索:接收到用户的问题后,将问题也编码成向量,并在向量数据库中找到与之最相关的文档块( top-k chunks )
将检索到的文档块与原始问题一起作为提示( prompt )输入到LLM中,生最终的回答
向量数据库的构建和使用:
作业1:
作业2:
过程:
下载茴香豆官方仓库
修改好厚的配置文件
用已下载模型的路径替换 /root/huixiangdou/config.ini 文件中的默认模型,需要修改 3 处模型地址
下载 Huixiangdou 语料:
过程中以为是操作失误造成报错,后来发现是问题的不规范导致的,造成了程序的报错
作业2结果:
问题与回答,
同时告诉我可以在 [WeChat 群](resource/figures/wechat.jpg) 中尝试 AI 助手内部,并使用 [OpenXLab](https://openxlab.org.cn/apps/detail/tpoisonooo/huixiangdou-web) 的 Web 门户,无需编写任何代码即可构建自己的知识助手,使用 WeChat 和 Feishu 群组。, ['README.md']
给出了茴香豆的技术报告,同时,链接还直接将我引向了茴香豆的技术报告
第二个问题给出了在微信群上的部署过程,基本实现了问题,同时步骤合理且层次清晰
简要总结:在InternLM Studio上部署茴香豆技术助手,首先创建微信小程序,然后通过微信开放平台接口与微信群对接,实现在微信群中提供技术支持。这样用户可以在微信群内方便地使用茴香豆的技术助手服务,提升沟通效率和技术交流便捷性。
第三个问题助手判断问题与所需主题和资料无关,故而助手报出错误,并且拒绝回答