OLLAMA部署qwen:7b,与fastgpt集成

本文介绍了如何使用OLLAMA框架在Docker容器中部署和管理LLM,特别是如何安装OLLAMA,运行qwen:7b模型,并与fastgpt集成。内容包括OLLAMA的安装步骤,fastgpt的配置,以及在fastgpt中测试qwen:7b的详细过程。
摘要由CSDN通过智能技术生成

ollama是什么?

Ollama 是一个强大的框架,设计用于在 Docker 容器中部署 LLM。Ollama 的主要功能是在 Docker 容器内部署和管理 LLM 的促进者,它使该过程变得非常简单。它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,例如 Llama 2。

安装

安装ollama

此处是在centos7.6,有一张古老的GTX 1180Ti 11G的显卡,配置和驱动如下:
在这里插入图片描述

下载并安装

使用root或者有sudo权限的用户
curl -fsSL https://ollama.com/install.sh | sh
安装好后,执行:service ollama stop 停止服务。

默认是绑定在127.0.0.1的IP,若需要绑定到指定IP,那么采用如下:
export OLLAMA_HOST=xx.xx.xx.71:11434 //这样会启动在指定IP上
ollama serve & //注意,不要用service ollama start来启动,这样环境变量不生效

运行qwen:7b

ollama run qwen:7b
注:第一次运行会下载模型,这个模型有4G多。
成功后ÿ

  • 27
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wengad

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值