背景
近期购买了华硕 ROG 幻X 2025 64GB 版本,其搭载的 AMD Ryzen AI Max+ 3951 APU(以下简称 395),除了和 NVIDIA GeForce RTX 4060 相接近的游戏性能,相信还有不少朋友关注其生产力表现,这里我会进行一些测试。
结论
关于 395 能否成功运行 ComfyUI 这个问题,我做了一些尝试,最后得出的结论是:全都跑不通
测试
方案 | 状态 | 细节 |
---|---|---|
Windows + ROCm (HIP SDK) + pytorch | ❌ pytorch 安装 | 1. pytorch 现阶段并不支持 Windows OS2 2. 有望在 2025Q3 支持3 3. 相关工作进行中4,疑似AMD工程师分享进展5 |
Windows WSL2 + ROCm v6.3 + pytorch 2.8 nightly | ✅ pytorch 安装 ❌ pytorch 使用 ROCm | 1. rocminfo 看似正常运行,实际 ROCm 在 WSL2 或 Linux 下不支持 RDNA3.5 及以上6(RDNA4 可能支持,有人跑通7)2. 运行 pytorch 会报错 "RuntimeError: No HIP GPUs are available" |
Windows + pytorch-directml | ✅ pytorch-directml ✅ ComfyUI ❌ 模型 | 1. python main.py --directml 正常启动 ComfyUI 前端 2. 实际运行 SD1.5 模型时出现蓝屏、自动重启系统的问题8 |
展望
至此,我暂时放弃本地机器跑 ComfyUI 和 SD,同时也开始好奇 LLM 为什么能在 395 上跑起来。做了一些简单的搜索,我将目光放在了 Vulkan 后端跑 LLM 这样的关键词上。下一步我或许会调查为什么 LLM 能运行在 395 上,以及我们能用本地模型来做些什么切实有用的事情。