Linux部分
5600XT这个卡是gfx1010的核心,这个是rand1架构,这是被amd放弃的老古董包裹其他的rand1或者rand2都是。
没钱也要玩AI(自能简单运用,不能训练,微调等)这张卡只有6g远远不够ai使用
所以我发现好像是能和cpu一起混用的。
#警告这张卡不要在linux下尝试安装rocm版本进行pytorch编译,然后进行模型微调,反正我是浪费时间了,根本行不通,因为amd根本就没看好这个种低端卡。在linux下只能简单的模型推理。用ollama 时候,以前需要复制链接文件,2025年3月后不用了(因为amd加上了,ollama更新了。)
sudo ln -s /usr/local/lib/ollama/rocm/rocblas/library/TensileLibrary_lazy_gfx{1030,1010}.dat
另外是需要修改export才能用GPU的
sudo systemctl edit --full ollama
[Service]
Environment="HSA_OVERRIDE_GFX_VERSION=10.1.0"
Environment="HIP_VISIBLE_DEVICES=0"
WIndows部分
配置安装步骤 5600xt类似的卡
下面有引用github的部分,自己去看或者下载
在以下应用程序中,您可以期待显著的性能提升,通常比 DirectML 快 2-3 倍:
ollama
llama.cpp
SD.Next
Stable Diffusion DirectML
stable-diffusion-webui-forge-on-amd
stable-diffusion-webui-amdgpu-forge
Training Flux LoRA Models with FluxGym, Zluda, and ROCm on Windows
LM Studio
只测试过ollama)
先安装
https://www.amd.com/en/developer/resources/rocm-hub/hip-sdk.html#downloads
6.2.4版本
下载
https://github.com/likelovewant/ROCmLibs-for-gfx1103-AMD780M-APU/releases/tag/v0.6.2.4
下载这个rocm.gfx1010-gfx1012-for.hip.sdk.6.2.4.7z
下载
https://github.com/likelovewant/ollama-for-amd/releases/tag/v0.6.0
下载且安装OllamaSetup.exe
找到安装目录
C:\Program Files\AMD\ROCm
C:\Users\Administrator\AppData\Local\Programs\Ollama
AMD HIP部分(rocblas只有推理没用训练的)
解压这个rocm.gfx1010-gfx1012-for.hip.sdk.6.2.4.7z
把下面的文件夹放到
rocblas.dll放到这个覆盖
C:\Program Files\AMD\ROCm\6.2\bin
删除library粘贴新的
C:\Program Files\AMD\ROCm\6.2\bin\rocblas\library
Ollama部分:
解压这个rocm.gfx1010-gfx1012-for.hip.sdk.6.2.4.7z
rocblas.dll放到这个覆盖
C:\Users\Administrator\AppData\Local\Programs\Ollama\lib\ollama\rocm
删除且粘贴新的
C:\Users\Administrator\AppData\Local\Programs\Ollama\lib\ollama\rocm\rocblas\library
现在ollama就可以用5600xt在windows下加速了(模型尽量用7b以下的)
如何启用ollama自行百度
windows自动启动服务的好像
用cherrstiudio就可以用ollama聊天了
sd部分
ComfyUI + RX 5600 XT + DirectML 安装与配置
1. 确保系统支持 DirectML(一般都支持的,跳过)
检查 Windows 版本
• DirectML 需要 Windows 10 2004 及以上(推荐 Windows 10 21H2+ 或 Windows 11)。
• 在 命令提示符(cmd) 输入:
winver
• 如果 Windows 版本低于 2004,建议升级系统。
检查 DX12 和 AMD 驱动(跳过,一般都是最新的)
• 按 Win + R,输入 dxdiag,回车。
• 切换到 “显示” 选项卡,检查是否支持 DirectX 12。
• 确保 AMD Radeon RX 5600 XT 驱动更新到最新:
• AMD 官方驱动下载地址:https://www.amd.com/zh-hans/support
pip install torch-directml
⸻
2. 安装 Python 3.10 和 Git
1. 下载 Python 3.10(推荐,不要用 3.11+):
• https://www.python.org/downloads/release/python-3100/
• 安装时勾选 “Add Python to PATH”。
2. 安装 Git:https://git-scm.com/downloads
⸻
3. 下载并安装 ComfyUI
这个直接复制别人的也可以
打开 命令提示符(cmd),输入:
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
⸻
4. 安装 PyTorch(DirectML 版本)
在 ComfyUI 目录 中运行:
pip install torch-directml
注意:DirectML 目前归类在 CPU 版本,但它在 Windows 上会自动调用 GPU 计算。
然后测试 PyTorch 是否正常:
python -c "import torch; print(torch.device('dml'))"
如果没有报错,说明 DirectML 可用。
⸻
5. 安装 ComfyUI 依赖
pip install -r requirements.txt
⸻
python main.py --directml 0
python -c "import torch_directml; print(torch_directml.device())"
7. 运行 ComfyUI
在 ComfyUI 目录 运行:
python main.py --directml 0
• 首次运行会下载 Stable Diffusion 模型(如果没有的话)。
• 如果一切正常,打开 浏览器,访问:
http://127.0.0.1:8188/
平常启动:打开cmd
f:
cd \ComfyUI
python main.py --directml 0
http://127.0.0.1:8188/
速度确实快