大模型开发范式
LLM的局限性
- 知识时效性受限:如何让LLM能够获取最新的知识
- 专业能力有限:如何打造垂域大模型
- 定制化成本高:如何打造个人专属的LLM应用
两种范式:RAG、Finetune
RAG
外挂知识库,首先从知识库匹配
- 低成本
- 可实时更新
- 受基座模型影响大
- 单次回答知识有限
Finetune
在较小的训练集上训练微调
- 可个性化微调
- 知识覆盖面广
- 成本高昂
- 无法实时更新
LangChain简介
LangChain框架是一个开源工具,通过为各种LLM提供通用接口来简化应用程序的开发流程,帮助开发者自由构建LLM应用。
核心组成模块:链(将组件组合实现端到端应用,通过一个对象封装实现一系列LLM操作 eg.检索问答链
基于LangChain搭建RAG应用
构建向量数据库
加载源文件 -> 文档分块 ->文档向量化
搭建知识库助手
- LangChain支持自定义LLM,可以直接接入到框架中
- 只需将InternLM部署在本地,并封装一个自定义LLM类,调用本地InternLM即可
构建检索问答链
RAG方案优化建议
Web Demo部署
框架:Gradio、Streamlit