装本地知识库

装本地知识库

image-20240520104942852

给大模型添加RAG知识库和搜索的功能

1.安装phidata

pip install -U phidata

在github将该项目拉取下来,后续步骤的很多内容可以直接使用该项目中给的例子,进行简单修改就可直接使用。

2.安装向量知识库,使用的docker

docker run -d \
  -e POSTGRES_DB=ai \
  -e POSTGRES_USER=ai \
  -e POSTGRES_PASSWORD=ai \
  -e PGDATA=/var/lib/postgresql/data/pgdata \
  -v pgvolume:/var/lib/postgresql/data \
  -p 5532:5432 \
  --name pgvector \
  phidata/pgvector:16

在此默认已经安装好了ollama

然后使用

ollama pull nomic-embed-text

启动刚刚安装的docker

进入到步骤1所说的cookbook目录下。

如果要使用自己微调的模型,则可以对rag.py里面模型对应部分的内容进行修改即可。

接下来使用命令,启动项目。

streamlit run llms/ollama/rag/app.py

streamlit run llms/ollama/rag/app.py




[微调Llama3实现在线搜索引擎和RAG检索增强生成功能!打造自己的perplexity和GPTs!用PDF实现本地知识库_哔哩哔哩_bilibili](https://www.bilibili.com/video/BV1Wb42187kk/?spm_id_from=333.337.search-card.all.click&vd_source=e3b1d6ceec31cba80353bfd01d49ed17)
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Langchain本地知识库是一个用于存储、管理和共享本地知识的平台。它通过收集和整理本地地理、文化、历史、习俗等方面的知识,并将其以标准化的形式呈现出来,为用户提供准确、有用的本地信息。 首先,Langchain本地知识库通过多种途径搜集本地知识,如调研、访谈、文献研究等,确保信息的真实性和权威性。同时,建立数据标准和分类体系,使得搜集到的知识可以被有效地组织、管理和检索。 其次,Langchain本地知识库提供了用户友好的界面和工具,使用户可以轻松地浏览、搜索和分享本地知识。用户可以通过输入关键字或浏览分类来快速查找他们感兴趣的本地信息,同时也可以分享自己的本地知识,为其他用户提供有价值的内容。 此外,Langchain本地知识库注重本地知识的多样性和全面性。它不仅收集流行的本地知识,还包括一些独特而不被广泛了解的知识。这让用户能够更好地了解和体验一个地区的文化和历史,从而提高他们的文化素养和地域意识。 总而言之,Langchain本地知识库是一个提供准确、有用的本地信息的平台,它通过搜集、整理和分享本地知识,为用户提供了便捷的方式来了解、探索和分享一个地区的文化、历史和习俗。它的存在帮助人们更好地了解和尊重多样的地方特色,并且促进了文化交流和地域发展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值