Win10上运行本地大模型

说一下电脑配置是4090的显卡,cuda为12.2,显存24G,内存64G,可以实现模型的部署~
首先下载ollama框架,下载链接官方网站https://ollama.com/,国内在下载github时往往会下载过慢,也可以从此链接中ollama的win版本下载。
1.下载按照提示的步骤安装即可,安装成功后右下角会有一个羊驼的标志
在这里插入图片描述
2.之后打开CMD窗口,检查ollama是否安装成功,输入以下命令如果出现类似提示,则显示安装成功。
在这里插入图片描述
3.在ollamav.1.39版本之后能够实现直接将模型量化,如Safetensors等格式可以用于ollama模型加载,转换模型过程十分简单。
从Hugging Face 下载一个带Safetensors 文件格式的模型,可以自行选择。用cd 切换到当前目录,如下所示
在这里插入图片描述
在当前文件夹下编写Modelfile文件,也就是在Meta-Llama-3-8B-Instruct文件夹下创建Modelfile文件
在这里插入图片描述
文件代码

FROM .

TEMPLATE """{{ if .System }}<|start_header_id|>system<|end_header_id|>

{{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|>

{{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|>

{{ .Response }}<|eot_id|>"""

PARAMETER stop <|start_header_id|>
PARAMETER stop <|end_header_id|>
PARAMETER stop <|eot_id|>

4.在cmd中输入模型量化命令

ollama create --quantize Q4_K_M -f Modelfile Meta-Llama-3-8B-chat-Q4_K_M

完事之后耐心等待,之后成为下图
在这里插入图片描述
5.最后运行模型,输入命令

ollama run Meta-Llama-3-8B-chat-Q4_K_M:latest

如下图所示
在这里插入图片描述

最后开启你的大模型学习之旅吧~

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值