无代码,零基础!手把手教你掌握Stable Diffusion,创作出惊艳AI插画!

【前言】

Stable Diffusion是一款开源、免费的应用程序,因为其生态开放且发展迅速,所以不同时期的安装、配置方式可能都会有所变化。如果遇到什么安装上的问题可以评论提出,帮你解答。

图片

关于Stable Diffusion

Stable Diffusion(简称SD)是2022年发布的一个深度学习文本到图像生成模型,由慕尼黑大学的CompVis研究团体首先提出,并与初创公司Stability AI、Runway(不是runwsh哈)合作开发,同时得到了EleutherAI和LAION的支持。

它可以实现的功能有很多,可以根据文本的描述生成指定内容的图片(图生图),也可以用于已有图片内容的转绘(图生图),还可以用作图像的局部重绘、外补扩充、高清修复,甚至是视频的“动画化”生成。

SD的源代码是开源发布在网上的,这意味着任何人都可以免费、不限量地使用它进行AI绘画生成操作。有开发者使用它的源代码制作了易于用户使用的图形化界面(GUI),于是便有了今天我们大多数人手里可以使用的Stable Diffusion WebUI(SD Web UI)。

图片

电脑配置的必要条件

Stable Diffusion 不要求配置高,但是要求着显卡的性能及显存的大小!

最低配置要求:

*在此配置条件下,约1-2分钟一张图,可绘制分辨率512*512像素。
显卡RTX 2060 及同等性能显卡
显存6GB
内存8GB
硬盘空间20GB的可用硬盘空间
操作系统、CPU没有硬性要求

较为推荐的配置:

*在此配置条件下,约10-30秒一张图,可绘制分辨率1024*1024像素。
显卡RTX 3060Ti 及同等性能显卡
显存8GB
内存16GB
硬盘空间150GB的可用硬盘空间
操作系统、CPU没有硬性要求

不知道自己显卡对应的等同性能是什么水平。可以参考:桌面显卡性能天梯图。

// 桌面显卡性能天梯图https://www.mydrivers.com/zhuanti/tianti/gpu/

Q&A​​​​​​​

Q:Mac能用Stable Diffusion吗?显卡用N卡好还是A卡好?A:问就是都能用,但目前,Nvidia(英伟达、N卡)显卡是AIGC应用公认的最优解。
Q:我想买一台新电脑来跑图,应该怎么选?A:非要这么问的话,购置一台N卡台式机是最佳的选择。

安装方式1:整合包安装Stable Diffusion

“整合包”一般指开发者对Automatic1111制作的Stable Diffusion WebUI进行打包并使其程序化的一种方式。使用整合包,一般可以省去一些自主配置环境依赖、下载必要模型的功夫。首先推荐使用整合包,以下是一些我推荐的整合包:

秋葉aaaki

公认最适合新手使用的整合包之一,支持一键启动,含可调节多种程序参数的启动器,方便更新管理。​​​​​​​

// 下载安装包// 将 zip 文件解压到您想要的位置。// 双击update.bat将 Web UI 更新到最新版本,等待完成然后关闭窗口。// 双击run.bat启动Web UI,首次启动时会下载大量文件。正确下载并安装所有内容后,您应该会看到一条消息“ Running on local URL:  http://127.0.0.1:7860”,打开该链接将向您显示 Web UI 界面。
https://pan.baidu.com/s/1jah5UZlnioDd4UWDf1pWQA?pwd=8868 提取码: 8868 
// A卡专用整合包https://pan.baidu.com/s/1QDqo2uEoUS_NY1olb4vmVQ //提取码:aaki 
sha1校验码:c7c5d497360c7ec3fe9af5ada1624842341d8275

图片

安装方式2:自主安装部署Stable Diffusion

---windows

  1. 安装Python 3.10.6(勾选Add to PATH)和git

  2. 从搜索栏打开命令提示符,然后键入

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

3. 双击webui-user.bat

---Linux

(基于 Debian)

  1. 输入以下命令,这会将 webui 安装到您的当前目录:

sudo apt install git python3.10-venv -ygit clone https://github.com/AUTOMATIC1111/stable-diffusion-webui && cd stable-diffusion-webuipython3.10 -m venv venv

2. 安装并运行:

./webui.sh {你的参数}

其他版本

// Red Hat-basedsudo dnf install git python3 -y && git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui && cd stable-diffusion-webui && ./webui.sh
// Arch-basedsudo dnf install git python3 -y && git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui && cd stable-diffusion-webui && ./webui.sh

备注:Python 3.10​​​​​​​

Installing Python 3.10cd stable-diffusion-webui
sudo pacman -S pyenvpyenv install 3.10.6pyenv local 3.10.6
python -m venv venv

图片

感兴趣可以关注我公众号,获取更多资料。干货满满哦:

​​​​​在这里插入图片描述

 

  • 6
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
使用稳定扩散算法(stable diffusion)训练自己专属的人像模型是一项基于AI技术的创新工作。下面是一些步骤,帮助你了解如何训练该模型。 首先,你需要准备一个包含大量人像图片的数据集。这个数据集可以包括各种类型的人像,以确保模型的泛化能力。确保图像质量高,具有足够的多样性是非常重要的。 接下来,你需要使用稳定扩散算法来训练模型。这种算法能够有效地处理图像数据,并生成高质量的人像。你可以使用深度学习框架,如PyTorch或TensorFlow来实现这个算法。根据你的需求和喜好,可以选择已经存在的模型架构,如U-Net等,也可以根据自己的特定要求设计新的架构。 训练过程中,你需要进行数据预处理、模型训练和模型优化等步骤。数据预处理包括图像裁剪、缩放和增强等操作,以提高模型的准确性和鲁棒性。模型训练阶段可以使用已标注的数据进行有监督训练,也可以采用无监督或半监督方法。模型优化则包括调整超参数、正则化和使用合适的损失函数等。 在训练完成后,你可以使用你的专属人像模型进行图像生成或编辑。该模型可以通过输入一张未经过加工的人像图像,生成具有艺术性的、更具个性的人像。你可以通过在模型的输入中添加一些约束,如风格引导或语义控制,来进一步控制图像的生成过程。 总的来说,使用稳定扩散训练自己的专属人像模型需要一定的深度学习和计算机视觉知识。但它为用户提供了一种独特而个性化的数字艺术创作体验。通过不断地学习和实践,你可以进一步完善和改进你的模型,以实现更加色和逼真的人像生成效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员小藕

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值