又一白嫖GPU平台禁止SD WebUI

早在3月份的时候,当时就有童鞋提到被封禁,但是根据评论区的情况,实际上当时Kaggle只是封禁NSFW内容的生成,就在我孜孜不倦地寻找Colab的下个白嫖平台时,看到还有人一直在推荐用Kaggle,结果上去一看才发现Kaggle也被封禁了,9月份官方人员正式提到禁止SD Webui这类AI绘画项目的运行,Kaggle上相关的code脚本均告失效,

https://www.bilibili.com/read/cv22179070/

相关脚本的维护者还推荐别人用回Colab,真是白嫖党一大噩耗,像其他平台比如autodl也要钱,更别说他家还禁止涩涩,大抵只能自建主机了。

https://www.kaggle.com/code/qq2575044704/stable-diffusion-webui

我无数次想过,要不就去买个台式机吧,问了一圈好点的基本上价格都在2~3w,毕竟一块3090就要一万多了。在安装上虽然不是很方便,但是好在网上教程多,而且还有那种可以更新的本地版本。在便携上,对于要经常外出的人,台式机真的太笨重了,更别提价格对于白嫖党实在不友好,转了一圈看来只能回归colab,毕竟一个月也就几十上百块钱,不用一下子投入这么多,可惜国内想给钱还有点困难,搜了一圈只能去找万能的某宝,看了下有家店还算比较便宜,遇上野鱼工作室,试着买了下感觉还行,暂时先这么着,看看后续还有没有些新平台出来了。

### 如何在 GPU 上部署 ollama-webui 为了在 GPU 上成功部署 ollama-webui,需满足特定环境配置和依赖项的要求。ollama-webui 支持通过 Python 的 pip 工具进行安装,并且对于希望利用 GPU 加速的用户来说,还需要额外准备些组件。 #### 环境准备 确保操作系统已正确安装 NVIDIA 驱动程序以及 CUDA Toolkit 和 cuDNN 库。这些工具包允许应用程序访问 GPU 并执行高效的计算操作[^1]。 #### 安装 PyTorch with CUDA Support 由于 ollama-webui 基于 PyTorch 构建,在支持 GPU 的环境中运行时需要安装带有 CUDA 支持版本的 PyTorch。可以通过以下命令来完成这过程: ```bash pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117 ``` 此命令会下载并安装适用于 CUDA 11.7 版本的 PyTorch 包及其相关库[^2]。 #### 获取最新版 open-webui 前往 [open-webui GitHub页面](https://github.com/open-webui/open-webui),克隆仓库到本地机器上。这步骤提供了最新的源码文件用于后续设置工作[^3]。 #### 启用 GPU 支持 当所有必要的软件都准备好之后,启动 web UI 应用之前可以指定 `CUDA_VISIBLE_DEVICES` 环境变量来定义哪些 GPU 设备可用。例如只使用第GPU 进行推理处理的话,则可以在终端中输入如下指令: ```bash export CUDA_VISIBLE_DEVICES=0 ``` 接着按照官方文档中的说明继续初始化服务即可享受由 GPU 提供的强大性能提升效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值