Windows系统编译支持GPU的llama.cpp

Windows系统编译支持GPU的llama.cpp

git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
mkdir build
cd build
cmake .. -G "Visual Studio 17 2022" -DGGML_CUDA=ON -DCMAKE_BUILD_TYPE=Release -DCMAKE_CUDA_ARCHITECTURES="86"

在这里插入图片描述

cmake --build . --config Release -- /m

在这里插入图片描述

### 安装CMake 为了能够在Windows系统上成功编译`llama.cpp`,首先需要确保已正确安装CMake。可以通过访问官方文档获取详细的安装指南[^1]。 ```powershell # 打开PowerShell并执行以下命令来验证是否已经安装了CMake cmake --version ``` 如果未检测到CMake,则应当前往官方网站下载适合操作系统的版本进行安装,并按照提示完成配置环境变量的操作以便可以在任何地方调用此工具。 ### 获取llama.cpp源码 接下来是从GitHub仓库克隆最新的`llama.cpp`项目副本: ```bash git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp ``` 这一步骤会创建一个名为`llama.cpp`的新文件夹并将所有必要的资源复制进去。 ### 编译过程 对于Windows用户来说,在拥有适当开发环境的前提下(比如Visual Studio),可以利用CMake生成对应的解决方案文件(.sln),之后再通过IDE来进行实际的构建工作。 ```batch mkdir build && cd build cmake .. msbuild /p:Configuration=Release llama.sln ``` 上述指令序列先建立了用于存放编译产物的子目录(build),切换至其中;接着调用了CMake准备适用于当前平台的目标工程描述;最后借助MSBuild完成了最终链接阶段的任务,从而得到可执行程序。 ### 使用说明 一旦顺利完成编译流程后就可以尝试运行测试样例了解基本功能特性: ```batch .\main.exe -m path\to\model.bin -t 8 -c 1024 -ngl 1 ``` 这条语句中的参数分别指定了加载哪个预训练权重集(-m)、线程数(-t)、上下文窗口大小(-c)以及GPU加速等级(-ngl)[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

mingo_敏

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值