【大模型】Ollama 更改镜像源,通过魔搭拉取模型

Ollama 更改镜像源,通过魔搭拉取模型

当前比较流行使用Ollama部署本地大模型,但是由于资源问题,经常会遇到下载速度很慢或下载不成功的问题。国内知名镜像源并没找到相应的镜像。以下介绍通过魔搭社区的模型库拉取大模型的方法:

ModelScope2Registry 是 Ollama 到 ModelScope 的模型 Registry 镜像站 / 加速器,它为 ModelScope 补齐更多了 Ollama Registry Manifests 信息,使 Ollama 能够从 ModelScope 魔搭 更快的 拉取 / 下载 模型。

Ollama 本地部署教程可参考:Ollama 本地部署DeepSeek模型,并通过ChatBox调用

1.选择模型

访问魔搭社区模型库:https://www.modelscope.cn/models

选择要部署的大模型(请选择带有 GGUF 模型的仓库)
以Qwen2.5-7B为例:
在这里插入图片描述

2.拉取模型.

ollama run modelscope2ollama-registry.azurewebsites.net/qwen/Qwen2.5-7B-Instruct-gguf

这将能够拉取 https://www.modelscope.cn/models/qwen/Qwen2.5-7B-Instruct-gguf 中的模型,对于不带有标签或 latest 将依次按顺序尝试选择Q4_K_M、Q4_0、Q8_0量化。

最近比较火的DeepSeek大模型:

ollama run modelscope2ollama-registry.azurewebsites.net/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF

注:通常此步骤即可完成拉取并部署本地模型的工作,如果对大模型有更深入的了解,可以继续执行后面两个步骤。

3.指定量化

可以通过 tag 指定选择的量化:

ollama run modelscope2ollama-registry.azurewebsites.net/qwen/Qwen2.5-7B-Instruct-gguf:Q8_0

这将能够拉取 https://www.modelscope.cn/models/qwen/Qwen2.5-7B-Instruct-gguf/resolve/master/qwen2.5-0.5b-instruct-q8_0.gguf ,量化类型标签不区分大小写,你可以在 这里 查看 Ollama 支持的量化。

仓库中需要包含带有正确格式文件名的 GGUF 文件(模型名称以“-”分隔,最后一位需要为有效的量化类型,形如:model-quant.gguf),暂不支持包含类似 0000x-of-0000x 的切分后的模型。

4.指定模板

若对话模板未能正确识别或识别有误导致对话输出异常,你可以尝试在标签后添加–为模型指定对话模板:

ollama run modelscope2ollama-registry.azurewebsites.net/qwen/Qwen2.5-7B-Instruct-gguf:Q8_0--qwen2

你可以查看 Ollama 官方支持的模板,和 魔塔支持的模板,以手动指定更加合适的模板。

### Ollama 镜像源配置 对于国内用户而言,由于网络原因可能会遇到官方资源下载速度较慢或者无法正常获的情况。为了提高效率并顺利部署Ollama环境,在更改镜像源方面可以采特定措施。 #### 使用搭平台拉模型 针对希望利用阿里云搭来作为替代方案的场景,可以通过该途径获得所需的大规模预训练模型实例[^1]。此方式不仅简化了操作流程还有效规避了一些地域性的访问障碍。 #### 修改默认存储路径 如果已经成功安装了Ollama服务端程序,则可通过调整其工作目录至具有更大容量以及更优读写性能的位置实现间接优化效果: ```bash mv /usr/share/ollama/ /mnt/storage/ ln -s /mnt/storage/ollama/ /usr/share/ ``` 上述命令会将原始位置下的`ollama`文件夹移动到挂载点为`/mnt/storage/`的新地点,并创建相应软连接以便维持原有依赖关系不变;之后重启服务使改动生效即可完成迁移过程[^3]。 #### 加速安装包下载 考虑到部分情况下直接从官方网站获最新版本可能存在困难,因此建议采用如下策略加快整个安装进度: - 访问GitHub页面找到对应发行版标签页下提供的二进制压缩包直链; - 将这些链接输入到专门用于提升跨境传输速率的服务里(例如<https://github.moeyy.xyz/>),从而得到经过代理处理后的快速通道地址; - 编辑本地保存下来的安装脚本(`ollama_install.sh`),把里面涉及远程加载的部分替换成为刚才准备好的加速链接; - 授予修改过的shell script以适当权限后执行它来进行最终设置步骤。 ```bash curl -fsSL https://ollama.com/install.sh -o ollama_install.sh chmod +x ollama_install.sh sudo ~/ollama_install.sh ``` 以上做法能够显著改善因地理位置差异所造成的不便之处,确保顺利完成软件套装的整体构建任务[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值