这节课主要介绍的如何使用InternLM和LangChain搭建属于自己的知识库 LLM局限 大模型虽然能力强大,但是知识具有时效性,并且定制成本高 对比finetune,rag成本低,并且可以实时更新,但是非常依赖基座模型 RAG的流程如下,其基本问题步骤在于文本向量化,然后从数据库中匹配相似文本,一起作为prompt输入到基础模型中,获得最终输出结果 利用langchain这一框架实现自己的知识库,其可以各种通用接口 这是基于langchain搭建自己的知识库的流程 RAG的优化策略有以下几点: