【自然语言处理与大模型】Ollama部署本地GGUF模型

        关于Ollama的基本使用方法,在之前的文章:Ollama的使用介绍 中就已经记录。那么本文想补充说明一下如果你想在本地部署一个GGUF格式的模型,该怎么使用Ollama来实现呢?答案是创建一个Modefile文件,在文件中指定模型所在位置,然后执行对应命令即可。

第一步:创建Modelfile文件

# 指定本地模型的位置
FROM /root/auto-temp/Qwen2.5-0.5B-Instruct-F16.gguf

# 指定模型参数
PARAMETER temperature 0.7

# 设置系统消息,定义助手行为
SYSTEM """
You are a helpful assistant.
"""

注意几个细节:

  1. Modelfile文件不能有后缀名;
  2. Modelfile文件只有第一行是必须的,其他配置都可以不指定。

第二步:执行命令加载模型到Ollama的模型列表中

在Modelfile文件所在路径下执行命令:

ollama create my_qwen -f Modelfile

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值