普通网友
这个作者很懒,什么都没留下…
展开
-
Stable Diffusion 真人照片转动漫风格
由于 SD 生手实在太费劲,我们需要给他更精准的参考,我的思路是直接把照片原图的手抠出来让 SD 重绘一下,再 P 到我们上面生成的美图上,这样就完成了一个精准的参考,真是个大聪明,说干就干。选择「Ghost Mix _v2.0」模型,将「生成批次」调为 6,1 次跑 6 张,上面我们已经得到模型测试结果,就先将「脚本」功能关闭,点击「生成」经过这步修脸之后,我们所有问题都处理完了,这次生成的图,有精致丰富的面部细节,自然的手部动作,以及准确的姿势,都保证了与原图的极大相似;原创 2023-12-12 11:59:12 · 1747 阅读 · 2 评论 -
Stable Diffusion 模特假人换服装、换背景、换真人
黑色代表保护,白色代表允许修改,灰色则用来调整被修改的程度。sd-webui-controlnet扩展插件之前已经讲过如何安装使用了《AI 绘画 | Stable Diffusion 提示词扩展插件》,这里主要讲一下sd-webui-segment-anything的安装使用。SD-WEB-UI 扩展》》从网站安装(如果是用的秋叶整合包,无需安装已经内置) ,安装后启动重启WEB-UI。sd-webui-segment-anything 不仅可以做到抠图的效果,也能实现之多蒙版的效果。原创 2023-12-12 10:47:33 · 1988 阅读 · 0 评论 -
Stable Diffusion替换背景
在Stable Diffusion软件中,使用ControlNet+模型实现固定物体批量替换背景出图的流程。原创 2023-12-12 10:35:58 · 1822 阅读 · 0 评论 -
Stable Diffusion 黑白老照片上色修复
在这个时代,我们习惯于拥有高清、色彩丰富的照片,然而,那些古老的黑白色老照片由于年代的久远,往往会出现模糊、破损等现象。那么今天要给大家介绍的是,用 Stable Diffusion 来修复老照片。前段时间 ControlNet 的除了上线了“IP-Adapter”模型以外还增加另一个叫“Recolor”的模型,它的作用就是给图片重新上色。通过“Recolor”,我们能够让那些古老的黑白色老照片重现生机,展现出它们原本应有的色彩和细节。原创 2023-12-12 09:56:16 · 1630 阅读 · 0 评论 -
Stable Diffusion涂鸦功能与局部重绘
(任何作品的)粗样,初稿。首先我们在图生图面板上传一张美女图片,然后点开涂鸦重绘选卡,然后点击画笔调整好粗细,在选择颜色管理器里的颜色,这里我们选着红色,给美女涂鸦一个口罩,然后在正向提示词输入框内输入mouth mask(口罩),点击生成图片即可。在 StableDiffusion图生图的面板里,除了图生图(img2img)选卡外,还有局部重绘(Inpaint),涂鸦(Sketch),涂鸦重绘(Inpaint Sketch),上传重绘蒙版(Inpaint Uplaod)、批量处理(Batch)等功能。原创 2023-12-12 09:48:38 · 1635 阅读 · 0 评论 -
Stable Diffusion 局部重绘(利用SD进行换脸)
能清楚的看到脸部周围的细节非常的差劲,这就是蒙版模糊不够时产生的后果,至于这个值选多少,看你个人需求,反正拉的很高的话,只修改一点点内容。为了修复脸部就出现了局部重绘功能,分辨率调高,脸部的像素密度就变大,重绘幅度加大就可以修复面部细节,但是。有时候在重绘脸部时 边缘无法很准确的选中,这时就需要蒙版模糊,可以羽化蒙版边缘,使得重绘部分与原图周围更加的贴合。这个时候因为你换的是背景,风景,所以正向提示词需要改,提示词相关性,重绘幅度也需要适当调整,用XYZ图表可以快速找到想要的区间。原创 2023-12-12 09:39:51 · 1370 阅读 · 0 评论 -
Stable Diffusion图生图
以上面这张图为例,如果用提示词描述,可能写上几百字都难以向模型解释清楚画面的内容,但图生图不同,模型会自动从参考图上提取像素信息,并将其作为特征向量准确映射到最终的绘图结果上,通过这样的方式能最大程度还原参考图中的提示信息,实现更稳定准确的出图效果。前面介绍图生图的原理是在原图基础上绘制一张新的图片,而重绘幅度就是用来控制在原图基础上重绘的发散性程度,数值越高,说明模型重绘过程中更加自由,绘制结果和原参考图的差异性越大,生成的图像也就更倾向于模型自身的绘图风格。下面我们来挨个介绍不同缩放模式的效果差异。原创 2023-12-06 16:04:43 · 1550 阅读 · 0 评论 -
Stable Diffusion写好提示词
图 3 给出了 stable diffusion 整体结构示意图,利用文本编码器 text encoder(蓝色模块),把文字转换成计算机能理解的某种数学表示,它的输入是文字串,输出是一系列具有输入文字信息的语义向量。当然,要是想保持原有图片结构,可继续使用前面提到的关键词切换,使用负面提示词“the: (painting cartoon:1.9): 0.3”,可得到图 19 中更接近原始图像但增加了写实主义风格的生成图像。负面提示词,即填入不想要的主体或者身体部位,以在采样过程中避免出现。原创 2023-12-06 16:03:35 · 1362 阅读 · 0 评论 -
StableDiffusionWebUI界面基本布局和操作
一般用于复制别人参数然后自动填充所有字段,以便您在按下“生成”按钮时生成相同的图像。请注意,将设置种子和模型覆盖。如果这不是您想要的,请将种子设置为 -1 并删除覆盖。原创 2023-12-06 16:02:05 · 1569 阅读 · 0 评论 -
StableDiffusion模型下载使用
首先要了解 Stable Diffusion 中的模型概念是什么?维基百科对模型的定义非常简单:用一个较为简单的东西来代表另一个东西。换句话说,模型代表的是对某一种事物的抽象表达。在 AIGC 领域,为了使机器表现出智能,研发人员使用机器学习的方式让计算机从数据中汲取知识,并按照人类所期望的方向执行各种任务。对于 AI 绘画而言,我们通过对算法程序进行训练,让机器来学习各类图片的信息特征,而在训练后沉淀下来的文件包,我们就将它称之为模型。简而言之,模型就是经过训练学习后得到的程序文件。原创 2023-12-06 16:01:08 · 1274 阅读 · 0 评论 -
StableDiffusionUI引擎部署
Stable Diffusion是一款基于人工智能技术开发的绘画软件,可帮助艺术家和设计师快速创建高品质的数字艺术作品。该软件使用了一种称为GAN(生成对抗网络)的深度学习模型,可以学习并模仿艺术家的创作风格,从而生成类似的艺术作品。同时,Stable Diffusion具有直观的用户界面,可让用户轻松地调整绘画参数并实时预览结果。通过Stable Diffusion Web UI,用户可以更加方便地使用Stable Diffusion的各种功能,包括但不限于文本到图像的生成、图像风格转换、图像修复等。原创 2023-12-06 15:59:36 · 513 阅读 · 0 评论 -
Stable Diffusion简介
Stable Diffusion是一个备受关注的文本到图像生成模型,具有广泛的应用前景和潜在的发展空间。该模型利用潜在扩散过程生成高质量且稳定的图像,适用于文本生成图像、图像修复、超分辨率重建等多个领域,并提供开源的预训练模型以方便用户使用。然而,由于潜在扩散过程的复杂性以及数据和计算资源的限制,Stable Diffusion仍然面临一些挑战和问题需要进一步研究和解决。原创 2023-12-06 15:55:30 · 1308 阅读 · 0 评论