AI绘画Fooocus加强版V2来袭!支持图生图、controlnet,4G显卡也能畅玩SDXL

大家好,我是画画的小强

之前给大家介绍过一款Stable diffusion的衍生软件——fooocus。它采用了与webUI和comfyUI完全不同的操作模式,使用起来有点像midjourney,只需要填写提示词就能得到相应的图像,非常便捷。而且它对硬件的要求不高,基本上4G的显存就能出图,应该是用来体验SDXL模型最方便的一款软件了。

Fooocus有一个分支加强版,叫做Fooocus-MRE(MoonRide 版),它加入了原版中没有的图生图ControlNet功能,让Fooocus变得更加强大了。因为只下载主程序的话,打开之后还需要另外下载很多模型,而且下载速度又很慢,所以我这里给大家整合了最新的Fooocus安装包V2的完全版本,直接下载下来,解压即玩。

接下来,我们就一起来看一下加强版相对于原版加入的新功能吧。

01、图生图

想使用一张图片做参考,我们可以在“图生图”中载入一张图片,点击“加载到输入”,图片就会被放入“输入”框内。

然后将下面的“图生图”打上勾。

点击生成,就得到了相同构图的图像。

我们切换一个“SAI动漫”风格。

这样,就可以生成一个相同动作的动漫风格的人物图像,右边的两个参数可以控制图像与参考图的相似程度。

02、修订

这个功能可以通过图片来代替文字,对生成图像产生影响。比如说我将下面两张图载入到修订图像中,强度均设置为1。

可以看到,在没有文字提示的情况下,结果生成图像会对两张图片的内容进行融合,包含了女孩和花,还有蓝色的色调,具体融合的程度可以通过右侧的强度参数控制。

我们还可以利用图像进行负向的修订,比如我们可以将图像1的强度设置为-1。

生成的图像中就完全排除了红色的色彩。

如果我们勾选“图生图”的话,就可以在这张图的控制下,同时通过修订排除掉红色,进行生成,这样就完全用图像代替了文字提示词。

03、ControlNet——Canny

在Fooocus-MRE中,包含了两种ControlNet控制类型,一个是canny,一个是depth。

这两种控制类型的作用我就不多解释了,直接演示一下效果。这里放入一张图片到图生图,作为线条参考。

启用canny,这边的参数可以控制线条检测的精细程度。

点击生成,就得到了和原图动作一样的图像,有canny的加持,比单纯使用图生图要来得更精准一些。

04、ControlNet——Depth

接下来使用一下depth深度控制,载入室内布局参考图,并输入一段文字提示“Realistic, Interior Design, Chinese Design Style”,同样可以用参数控制深度的强度。

点击生成,我们就得到了一张中式风格的室内设计效果图。

05、负向Embedding

增加了负向提示词,可以使用“embedding:EasyNegative”的语法来引入负向embedding。

这样可以帮助我们生成更有质量的图像。

06、可定制的采样参数

包含了CFG、clip、采样器等等一些我们在webUI中常用的控制参数,可以丰富我们对图片的控制能力。

迭代步数同样也可以自定义。

07、保存信息

输出信息可以选择不同的格式,也可以将元数据保存在json,即保存工作流的意思,还可以将数据保存在图像中,当我们下一次载入图像的时候,就可以读取元数据了。

以上,就是关于fooocus加强版功能的一些介绍。fooocus降低了使用SD时对电脑的配置要求,同时又不像comfyUI那样有较高的上手难度,可以说是新人来体验SDXL最方便的一个软件了。加强版的出现又在它简便的背景上增加了一些可控性,让出图能更加符合我们的需求。

这个Fooocus-MRE加强版的整合包我会放在网盘中,大家想要的可以看下方扫描获取

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 19
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一些常用的 AI 模型中关于声音克隆、像生成和绘画的接口文档及其网址: 1. WaveNet Vocoder:WaveNet Vocoder 是一种基于 WaveNet 的语音合成技术,可以实现高质量的语音合成。它提供了 Python API,可以使用 TensorFlow 或 PyTorch 实现。WaveNet Vocoder 的接口文档可以在 GitHub 上找到:https://github.com/r9y9/wavenet_vocoder 。 2. Deep Voice 3:Deep Voice 3 是一种基于深度学习的语音合成技术,可以实现高质量的语音合成。它提供了 Python API,可以使用 TensorFlow 或 PyTorch 实现。Deep Voice 3 的接口文档可以在 GitHub 上找到:https://github.com/r9y9/deepvoice3_pytorch 。 3. DALL-E:DALL-E 是一种基于 GAN 的像生成技术,可以生成与输入文本相关联的像。它提供了 Python API,可以使用 TensorFlow 或 PyTorch 实现。DALL-E 的接口文档可以在 GitHub 上找到:https://github.com/lucidrains/DALLE-pytorch 。 4. GPT-3:GPT-3 是一种基于 Transformer 的语言模型,可以生成与输入文本相关联的自然语言。它提供了 API 接口,可以通过 HTTP 协议进行调用。GPT-3 的接口文档可以在 OpenAI 的官方网站上找到:https://beta.openai.com/docs/api-reference 。 5. Neural Style Transfer:Neural Style Transfer 是一种基于深度学习的像风格迁移技术,可以将一幅像的风格应用到另一幅像上。它提供了 Python API,可以使用 TensorFlow 或 PyTorch 实现。Neural Style Transfer 的接口文档可以在 GitHub 上找到:https://github.com/lengstrom/fast-style-transfer 。 需要注意的是,这些接口文档都是通过使用 AI 大模型实现的,需要在使用之前仔细阅读文档并遵循相关的使用规则和条款。同时,这些模型通常需要大量的计算资源和数据集支持,需要耗费较长的时间进行训练和部署。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值