ControlNet star量破万!2023年,AI绘画杀疯了?

来源:机器之心

从骑马的宇航员到三次元小姐姐,在不到一年的时间里,AI 绘画似乎已经取得了革命性的进展。

c07a55a53d42277c023c1573a904cbea.png

这个「骑马的宇航员」由 OpenAI 2022 年 4 月推出的文生图模型 DALL・E 2 绘制。它的前辈 ——DALL・E 在 2021 年向人们展示了直接用文本生成图像的能力,打破了自然语言与视觉的次元壁。在此基础上,DALL・2 更进一步,允许人们对原始图像进行编辑,比如在画面中添加一只柯基。这一个看似简单的操作其实体现了 AI 绘画模型可控性的提升。

30ed8ad477f81886e459165ac0071910.jpeg

不过,就影响力而言,2022 年最火的文生图模型并不是 DALL・E 2,而是另一个和它功能相似的模型 ——Stable Diffusion。和 DALL・E 2 一样,Stable Diffusion 也允许创作者对生成的图像进行编辑,但优势在于,这个模型是开源的,而且可以在消费级 GPU 上运行。因此,在 2022 年 8 月发布之后,Stable Diffusion 迅速走红,短短几个月就成了最火的文生图模型。

15232a4e7321c1c29f7b44024694b075.gif

在此期间,人们也在进一步探索各种控制这类模型的方法,比如 Stable Diffusion 背后团队之一的 Runway 公司发布了一个图像擦除和替换(Erase and Replace)工具,该工具可以修改图像任何部分。用户需要做的就是擦除该区域并编写自然语言描述,剩下的交给程序就可以了。

49a0648cacb5f03a72f5f14e3d6740e8.gif

谷歌和波士顿大学的研究者则提出了一种「个性化」的文本到图像扩散模型 DreamBooth,用户只需提供 3~5 个样本 + 一句话,AI 就能定制照片级图像。

348745b4f2b10e75719c17eebe4d00dd.png

此外,来自 UC 伯克利的研究团队还提出了一种根据人类指令编辑图像的新方法 InstructPix2Pix,这个模型结合了 GPT-3 和 Stable Diffusion。给定输入图像和告诉模型要做什么的文本描述,模型就能遵循描述指令来编辑图像。例如,要把画中的向日葵换成玫瑰,你只需要直接对模型说「把向日葵换成玫瑰」。

ea1e957d6a8f29a4c19b6cd489586cf8.png

进入 2023 年,一个名为 ControlNet 的模型将这类控制的灵活度推向了高峰。

ControlNet 的核心思想是在文本描述之外添加一些额外条件来控制扩散模型(如 Stable Diffusion),从而更好地控制生成图像的人物姿态、深度、画面结构等信息。

这里的额外条件以图像的形式来输入,模型可以基于这张输入图像进行 Canny 边缘检测、深度检测、语义分割、霍夫变换直线检测、整体嵌套边缘检测(HED)、人体姿态识别等,然后在生成的图像中保留这些信息。利用这一模型,我们可以直接把线稿或涂鸦转换成全彩图,生成具有同样深度结构的图等等,通过手部关键点还能优化人物手部的生成。

f8f399e90da79d4572428c579b26ab55.png

18e33731ba0ac9a04d09d36136446151.png

f5e349d38f206c353b0353e818015db5.png

这一模型在 AI 绘画领域掀起了巨浪,相关项目 GitHub star 量已破万。

8555429462aeb85351e336c967fbc344.png

项目链接:https://github.com/lllyasviel/ControlNet

虽然当前很多人只是用它来生成二次元、三次元小姐姐,但其更广泛的用途也被逐渐挖掘出来,比如房屋设计、摄影摄像、影视制作、广告设计等。在这些场景中,ControlNet 被拿来和之前的一些工具一起使用,比如处理大模型微调问题的 LoRA、视频 - 动画转换工具 EbSynth 等。这些工具的组合应用加速了 AI 绘画模型与生产过程的融合。

a72c5f9e90607832318ef959d7b18773.gif利用 ControlNet 和 EbSynth 等工具重新进行室内装潢设计。图源:https://creativetechnologydigest.substack.com/p/controlling-artistic-chaos-with-controlnet  (内附完整教程)

750f2c093922b341930a05c5a91d5790.gif利用 ControlNet 和 Houdini 工具生成 3D 模型。图源:https://www.reddit.com/r/StableDiffusion/comments/115eax6/im_working_on_api_for_the_a1111_controlnet/

ac71d69b5f5538cdfd2eeb432196565f.gif用 Dreambooth 和 ControlNet 改变 2D 图像光照,可用于照片、视频的后期制作。图源:https://www.reddit.com/r/StableDiffusion/comments/1175id9/when_i_say_mindblowing_i_mean_it_new_experiments/

5123b71342d2455cdb1df7453417ce89.gif用 ControlNet 和 EbSynth 实现动画转真人。虽然效果还不太好,但已经显示出了把动漫改编成真人版但无需演员出镜的潜力。图源 https://www.reddit.com/r/StableDiffusion/comments/117ewr9/anime_to_live_action_with_controlnet_ebsynth_not/

eda1877944016e1946ebab42d1715f30.png某设计师利用 ControlNet 生成的著名品牌「新 logo」。图源:https://twitter.com/fofrAI/status/1628882166900744194

惊喜之余,这些技术的进展也让绘画等领域的从业者陷入焦虑和愤怒。焦虑的是,AI 可能会夺走自己的饭碗。愤怒的是,AI 生成的图像很多是对当前画师的抄袭和模仿,画师的知识产权受到了侵犯。

8dff83613abc269b4452e695549400de.jpeg图源:https://www.zhihu.com/question/583294094

在这些问题尚未解决的情况下,AI 绘画在画师圈成了一个尖锐的问题。很多人认为大家应该一起抵制 AI 绘画,共同捍卫自己的权益。因此,当某知名画师疑似采用 AI 绘画为某游戏工作室供稿的消息传开后,其他画师们被彻底激怒。

同时被激怒的还有游戏玩家。由于目前 AI 绘画还存在一些局限,比如处理不好手部细节(仔细观察本文第一张图的小姐姐可以看出来),达不到玩家所要求的美术视觉效果精湛、人物富有个性和创意等要求,很多玩家产生了「被糊弄」的感觉。因此,上述游戏工作室只能紧急发布声明,称「不会在产品中使用 AI 作画」。

但这种情况会持续多久呢?当 AI 绘画的水平达到肉眼难以分辨的程度,你怎么知道你玩的游戏究竟出自画师还是 AI,亦或二者组成的「团队」?

0cd3e93c03f650c499c11b1fa4c091ea.png

图源:https://m.weibo.cn/2268335814/4870844515358190

或许再过几个月,AI 绘画工具就会像程序员使用的 Copilot 一样,成为绘画师日常工作必不可少的工具。当然,这也在无形中提高了这一行业的门槛,正如已经被 AI「入侵」的其他行业一样。如何在这样的浪潮中保持自己的竞争力可能是每个人都应该思考的问题。

e202fb90ba58bdf89478de048db4b0c6.png

推荐阅读

欢迎大家加入DLer-计算机视觉技术交流群!

大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。

进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明)

74492c1cea07caa0f72bcce292fbfaea.jpeg

👆 长按识别,邀请您进群!

c6e3a6d9277ab7d64e98009b10f15c4f.gif

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值