window Intel(R) 安装 ComfyUI时解决 Torch not compiled with CUDA enabled 问题

你好,我是 shengjk1,多年大厂经验,努力构建 通俗易懂的、好玩的编程语言教程。 欢迎关注!你会有如下收益:

  1. 了解大厂经验
  2. 拥有和大厂相匹配的技术等

希望看什么,评论或者私信告诉我!


一、前言

上一篇我们了解到了什么是 CUDA 以及 Intel® Lris(R)Xe Graphics ,了解清楚后,下面我们在 Intel® Lris(R)Xe Graphics 机器上 开始本地安装 ComfyUI。

二、安装 ComfyUI

2.0 安装 aconda

2.1 步骤1:检查GPU是否支持CUDA

我的是 Intel® Lris(R)Xe Graphics 不支持 CUDA

2.2 安装 PyTorch版本

进入 pytorch官网,https://pytorch.org/get-started/locally/ 选择合适的方式下载合适的包

2.3 下载 ComfyUI

此步需要你将 ComfyUI 代码拉到本地。如果你会 Git 请在 Terminal 运行以下代码,即可完成此步骤:

git clone https://github.com/comfyanonymous/ComfyUI

2.4 进入到 ComfyUI

cd /ComfyUI

2.5 安装依赖

pip install -r requirements.txt

三、启动服务

python main.py --disable-cuda-malloc --use-split-cross-attention --cpu

–disable-cuda-malloc:这个选项可能是用于禁用使用CUDA(Compute Unified Device Architecture)库中的内存分配功能。CUDA是由NVIDIA提供的并行计算平台和编程模型,用于在NVIDIA GPU上加速计算任务。禁用CUDA内存分配可能意味着程序将不再使用GPU上的内存管理功能。

–use-split-cross-attention:这个选项可能指示程序使用分割的跨注意力(cross-attention)机制。在深度学习中,跨注意力是一种模型结构,用于处理序列到序列的任务,使得模型能够有效地关注输入序列的不同部分。使用分割的跨注意力可能意味着模型使用了一种特定的注意力机制变体。

–cpu:这个选项可能指明程序应在CPU上执行,而不是在GPU上执行。在深度学习任务中,通常会使用GPU来加速计算,因为GPU具有并行计算的优势。但是,有时候也可以选择在CPU上运行,尤其是当GPU资源有限或者任务不需要太多计算性能时。

四、总结

这篇文章为读者提供了在Intel® Iris® Xe Graphics机器上安装和启动ComfyUI的详细指南,强调了即使在不支持CUDA的环境下,通过选择正确的启动参数和配置,也能有效地运行深度学习应用。此外,文章通过作者shengjk1的介绍,展示了其对于编写有教育意义且易于理解的编程内容的承诺,以及分享大厂技术经验的意图。

  • 11
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
出现AssertionError: Torch not compiled with CUDA enabled错误是因为在编译PyTorch没有启用CUDA支持。要解决这个问题,你可以按照以下步骤进行操作: 1. 首先,确保你的系统上安装CUDA驱动程序。你可以从NVIDIA官方网站下载并安装适用于你的显卡的CUDA驱动程序。 2. 接下来,检查你的PyTorch版本是否支持CUDA。你可以通过运行以下代码来检查: ```python import torch print(torch.cuda.is_available()) ``` 如果输出结果为True,表示你的PyTorch支持CUDA。如果输出结果为False,则需要重新安装支持CUDA的PyTorch版本。 3. 如果你安装的是CPU版本的PyTorch,而不是支持CUDA的版本,那么你需要重新安装支持CUDA的PyTorch。你可以从PyTorch官方网站下载对应的版本,并按照官方文档提供的安装步骤进行操作。 4. 如果你已经安装了支持CUDA的PyTorch,但仍然遇到了这个错误,那么可能是因为在安装PyTorch没有正确设置CUDA相关的环境变量。你可以按照以下步骤进行操作: - 在你的系统环境变量中添加CUDA的路径。具体的路径可能会因为你的系统配置而有所不同,你可以在CUDA安装目录下找到相应的路径。 - 在你的PyCharm项目中设置CUDA相关的环境变量。你可以在PyCharm的设置中找到项目的环境变量设置,并添加CUDA的路径。 通过以上步骤,你应该能够解决AssertionError: Torch not compiled with CUDA enabled错误并成功启用CUDA支持。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

shengjk1

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值