为了在Windows操作系统上让Ollama模型运行在GPU上,你需要按照以下步骤进行配置:
确认GPU兼容性:
NVIDIA GPU:需要安装CUDA工具包(推荐CUDA 11+)和对应驱动。
AMD/Intel GPU:可能需要ROCm或DirectML支持(取决于Ollama版本)。
安装必要的软件:
安装最新版本的NVIDIA显卡驱动,确保CUDA功能能够启用。
下载并安装CUDA Toolkit,版本需与Ollama兼容。
安装cuDNN(可选,但推荐)。
设置环境变量:
右键点击开始菜单,选择“系统”,然后点击“高级系统设置”,再点击“环境变量”。
新建系统变量,变量名为OLLAMA_GPU_LAYER,变量值为cuda(对于NVIDIA GPU)或directml(对于AMD/Intel GPU)。
(可选)如果有多个GPU,可以通过设置CUDA_VISIBLE_DEVICES环境变量来指定使用哪个GPU。
验证环境变量:
打开PowerShell,运行echo $env:OLLAMA_GPU_LAYER命令,检查变量是否生效。
重启Ollama服务:
在PowerShell中运行相应的命令来重启Ollama服务,或者直接重启计算机。
检查GPU占用:
启动Ollama时,日志中应显示类似“Using GPU”的提示。
运行ollama run <模型名>命令时,观察GPU占用情况(可以通过任务管理器或nvidia-smi命令查看)。
(如果使用Docker)配置Docker以支持GPU加速:
确保已经安装Docker Desktop for Windows,并在安装过程中勾选“Use WSL 2 based engine”。
开启对NVIDIA GPU的支持,通过PowerShell执行相关命令来安装Ubuntu子系统、更新包列表并安装nvidia-container-toolkit工具集。
重启计算机让更改生效。
创建一个专用目录用于存储Ollama的数据文件夹。
根据官方文档指导拉取最新的Ollama镜像,并启动带有GPU参数的服务实例。
请确保按照上述步骤正确操作,并检查GPU驱动和CUDA的安装状态。如果遇到问题,建议查阅Ollama官方文档或寻求专业帮助。