基于 InternLM 和 LangChain 搭建你的知识库

        废话不多说,我们直奔主题。这篇文章简单来说就是基于标题这两个工具构建我们的个人知识库

        众所周知,大模型都是方方面面都懂一些的,但是如果深层次地追问它某一个领域的专业问题,它就会胡说八道,这时我们就可以基于 InternLMLangChain 搭建专门的某领域纵向的知识库。

一、还是和上一节一样,创建一个新的叫InterLM的环境

并安装相应所需要的依赖,如图

二、下载模型

运行如下图的代码便可快速完成下载(有一个download.py 和 download_hf.py,本文只附了一个图)

并完成相关环境的依赖

因为时间原因,有些仓促,具体文章见https://github.com/InternLM/tutorial/blob/main/langchain/readme.md

之后就是博主自己部署过程中的一些截图,之后会补充讲解文字,时间紧,见谅

  • 7
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值