和本地大模型进行对话

一 ,ollama的安装以及大模型下载

1.1

本文会分享如何部署本地大模型,使用到的工具有

  • Ollama

本文主要分享

  • 如何用Ollama在本地运行大模型

2.1 安装ollama

官方下载地址:ollama.com/download

当安ollama之后,我们可以通过访问如下链接来判断ollama是否安装成功

http://127.0.0.1:11434/

2.2 使用ollama运行本地大模型

当安装完成ollama之后,我们就可以在命令行中运行如下命令

ollama run 模型

其中模型就是你想运行的本地大模型的名称,可以通过model library进行查看。这里我们选择llama3大模型:llama3

考虑到机器的配置以及不同版本的内存要求,我这里选择默认参数的模型

当我们运行大模型的时候,ollama会自动帮我们下载大模型到我们本地。

下载完之后就可以在本地进行会话了

在终端中跟大模型进行交互的方法有点不太方便。可以使用Open WebUI大模型交互客户端进行部署

二、通过Open WebUI使用大模型

2.1 安装Open WebUI

Open WebUI是github上的一个开源项目,我们参考其官方文档使用Docker进行下载和安装。

  1. 在安装之前,我们需要先安装Docker:
  1. 官方文档中推荐了两种安装Open WebUI的方式:
  • ollama和open webui一起安装
  • 仅仅安装open webui

第一步中已经安装了ollama,所以就可以直接安装open webui了,命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

出现图中输出,说明Open WebUI安装下载完成

2.2 使用Open WebUI

  1. 首先访问如下网址
http://localhost:3000/auth/

打开页面会出现登陆界面,使用邮箱注册一个账号即可

和本地大模型进行对话

登陆成功之后,webui页面就出现了。

这就是使用Open WebUI进行聊天对话的方式了

  • 8
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值