Ollama本地部署大模型使用教程

0.引言

Ollama是一个支持在本地快速部署大模型服务的解决方案。

Ollama的核心能力主要包括两个,可以让用户轻松在本地部署大模型服务,目前已经支持了很多开源的大模型,下面介绍一下Ollama的安装使用教程。

1.下载安装Ollama 

访问Ollama官网进行下载:Ollama 

安装过程不在赘述了,很简单的。

2.配置环境变量 

在用户环境变量的Path下,看一下有没有Ollama的安装位置的环境变量,没有新建一个,有就不用管了,我忘记了这个环境变量是不是自动添加的了。

OLLAMA_MODELS:这个变量指定了模型镜像的存储路径。通过设置OLLAMA_MODELS=D:\OLLAMA,我们可以将模型镜像存储在D盘,避免C盘空间不足的问题。

 

 3.拉取模型

 

下载完毕就可以使用啦。

也可以在python中调用本地的Ollama中的模型。 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值