基于chatOllama实现本地RAG应用

本文详细介绍了如何在Windows10Docker环境中安装和配置chatOllama,包括设置环境变量、初始化SQLite数据库、下载模型以及导入本地知识库进行问答。展示了本地知识库启用前后问答效果的对比。
摘要由CSDN通过智能技术生成

基于chatOllama100%实现本地RAG应用

环境

  • Windows 10
  • Docker
  • ollama

基于Docker环境安装chatOllama

下载chatOllama

下载到桌面docker-compose.yaml,并在命令行中执行如下命令,开始下载相关docker

cd C:\Users\Administrator\Desktop
docker compose up

在这里插入图片描述

下载完成后会看到Docker Desktop中有三个容器在运行
在这里插入图片描述

配置环境变量

由于chatOllama是运行是docker容器中,所以需要在本机设置环境变量,将chatOllama的地址设置为环境变量,方便后续调用

OLLAMA_HOST=http://host.docker.internal:11434

在这里插入图片描述

初始化SQLite数据库
docker compose exec chatollama npx prisma migrate dev

在这里插入图片描述

下载文本嵌入模型
ollama pull nomic-embed-text:latest

访问chatOllama

访问地址:http://l27.0.0.1:3000/

看到如下页面说明chatollama已经成功运行

在这里插入图片描述

配置chatOllama

进入设置页面,配置ollama server,地址配置为:
http://host.docker.internal:11434
在这里插入图片描述

模型下载

进入模型下载页面,下载模型,因为我之前用ollama pull过很多模型,所以这里就展示出来了,如果没有下载过,在下载地址栏输入模型名称即可

在这里插入图片描述

本地知识库

导入本地文件

进入知识库页面,点击导入本地文件,选择本地文件,点击导入即可,支持多个文件导入
在这里插入图片描述

本地文件内容:
在这里插入图片描述

配置chat

导入完成之后,点击opsany部署,进入chat页面,点击编辑按钮就入编辑页面,选择模型
在这里插入图片描述

开始问答

根据文档内容提问,可以得到相应的回答,可以看到回答的内容和上传的文档内容大致相似,并且可以看到来源是pdf文档
在这里插入图片描述

以下是没有使用本地知识库的情况

可以看到回答和上传的问答是明显不一样的
在这里插入图片描述

  • 7
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值