大模型实战营Day3 基于 InternLM 和 LangChain 搭建你的知识库
大模型开发范式
LLM的局限性
知识时效性受限:如何让LLM能够获取最新的知识
专业能力有限:如何打造垂域大模型
定制化成本高:如何打造个人专属的LLM应用
RAG VS. Finetune
RAG
低成本、可实时更新、受基座模型影响大、单词回答知识有限
Finetune
可个性化微调、知识覆盖面广、成本高昂、无法实时更新
LangChain简介
LangChain框架是一个开源工具,通过为各种LLM提供通用接口来简化应用程序的开发流程,帮助开发者自由构建LLM应用
LangChain的核心组成模块:
- 链(Chains):将组件组合实现端到端应用,通过一个对象封装实现一系列LLM操作
- Eg.检索问答链,覆盖实现了RAG(检索增强生成)的全部流程
构建向量数据库
搭建知识库助手
将InterLM
接入LangChain
- LangChain支持自定义LLM,可以直接接入到框架中
- 我们只需要将InternLM部署在本地,并封装一个自定义LLM类,调用本地InternLM即可