废话不多说,我们直奔主题。这篇文章简单来说就是基于标题这两个工具构建我们的个人知识库。
众所周知,大模型都是方方面面都懂一些的,但是如果深层次地追问它某一个领域的专业问题,它就会胡说八道,这时我们就可以基于 InternLM 和 LangChain 搭建专门的某领域纵向的知识库。
一、还是和上一节一样,创建一个新的叫InterLM的环境
并安装相应所需要的依赖,如图
二、下载模型
运行如下图的代码便可快速完成下载(有一个download.py 和 download_hf.py,本文只附了一个图)
并完成相关环境的依赖
因为时间原因,有些仓促,具体文章见https://github.com/InternLM/tutorial/blob/main/langchain/readme.md
之后就是博主自己部署过程中的一些截图,之后会补充讲解文字,时间紧,见谅