关于 AMD Ryzen AI Max+ 395 / Radeon 8060S 能否跑通 ComfyUI 的初步调查报告

背景

近期购买了华硕 ROG 幻X 2025 64GB 版本,其搭载的 AMD Ryzen AI Max+ 3951 APU(以下简称 395),除了和 NVIDIA GeForce RTX 4060 相接近的游戏性能,相信还有不少朋友关注其生产力表现,这里我会进行一些测试。

结论

关于 395 能否成功运行 ComfyUI 这个问题,我做了一些尝试,最后得出的结论是:全都跑不通

在这里插入图片描述

测试

方案状态细节
Windows + ROCm (HIP SDK) + pytorch❌ pytorch 安装1. pytorch 现阶段并不支持 Windows OS2
2. 有望在 2025Q3 支持3
3. 相关工作进行中4,疑似AMD工程师分享进展5
Windows WSL2 + ROCm v6.3 + pytorch 2.8 nightly✅ pytorch 安装
❌ pytorch 使用 ROCm
1. rocminfo 看似正常运行,实际 ROCm 在 WSL2 或 Linux 下不支持 RDNA3.5 及以上6(RDNA4 可能支持,有人跑通7
2. 运行 pytorch 会报错 "RuntimeError: No HIP GPUs are available"
Windows + pytorch-directml✅ pytorch-directml
✅ ComfyUI
❌ 模型
1. python main.py --directml 正常启动 ComfyUI 前端
2. 实际运行 SD1.5 模型时出现蓝屏、自动重启系统的问题8

展望

至此,我暂时放弃本地机器跑 ComfyUI 和 SD,同时也开始好奇 LLM 为什么能在 395 上跑起来。做了一些简单的搜索,我将目光放在了 Vulkan 后端跑 LLM 这样的关键词上。下一步我或许会调查为什么 LLM 能运行在 395 上,以及我们能用本地模型来做些什么切实有用的事情。


  1. AMD Ryzen™ Al Max+ 395 ↩︎

  2. ROCm component support — HIP SDK installation (Windows) ↩︎

  3. Windows compilation? · Issue · ROCm/pytorch ↩︎

  4. Branches · ROCm/pytorch ↩︎

  5. X 上的 Anush Elangovan:“I’m running ROCm on my strix halo. Stay tuned 😉” / X ↩︎

  6. System requirements (Linux) — ROCm installation (Linux) ↩︎

  7. Working ComfyUI with ROCM on 9070XT - a quick tutorial and an ask. ↩︎

  8. torch-directml: BSOD in Ryzen iGPU Environment · Issue · microsoft/DirectML ↩︎

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值