20%的杨幂+80%的泰勒长什么样?风格化AI来了,惊艳全场!

文章介绍了InstantIDAI,一种利用扩散模型进行图像风格转换的AI技术,无需真人出镜,只需一张照片即可快速实现多种风格变换,且保持高保真度。该技术通过IDembedding捕捉人脸信息,轻量级模块进行风格适应,并与SD等预训练模型无缝集成,具有文本编辑性和高效率的特点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

来源:量子位

不得不说,现在拍写真真是“简单到放肆”了。

真人不用出镜,不用费心凹姿势、搞发型,只需一张本人图像,等待几秒钟,就能获得7种完全不同风格:

f1aac8214d2958f3a8eb20696de09a3a.png

仔细看,造型/pose全都给你整得明明白白,并且原图直出修也不用修了。

这搁以前,不得在写真馆耗上至少整整一天,把咱和摄影师、化妆师都累个半死不活。

690fa39be60cf166bcee6d0e10edfa4a.png

以上,便是一个叫做InstantID AI的厉害之处。

除了现实写真,它还能整点“非人类的”:

比如猫头猫身,但仔细看又有你的脸部特征。

ba562b181f14c4098ad40bd622dc4a0a.png

各种虚拟风格就更不用说了:

7113bf55d332a1fa35c55652854ba4d2.png

像style 2,真人直接变石像。

当然,输入石像也能直接变:‍

31cdc5e2aaef2bf10038062a9eafcf22.png

对了,还能进行俩人脸融合的高能操作,看看20%的杨幂+80%的泰勒长什么样:

9a3def8234d5453cb2e1b9430c82d272.png

一张图无限高质量变身,可是叫它玩明白了。

所以,这是怎么做到的?

基于扩散模型,可与SD无缝集成

作者介绍,目前的图像风格化技术已经可以做到只需一次前向推理即可完成任务(即基于ID embedding)。

但这种技术也有问题:要么需要对众多模型参数进行广泛微调,要么与社区开发的预训练模型缺乏兼容性,要么无法保持高保真度的面部特征。

为了解决这些挑战,他们开发了InstantID。

InstantID基于扩散模型打造,其即插即用(plug-and-play)模块仅靠单张面部图像即可熟练地处理各种风格化变身,同时确实高保真度。

最值得一提的是,它可与时下流行的文本到图像预训练扩散模型无缝集成(例如SD1.5、SDXL),作为插件使用。

具体来看,InstantID由三个关键组成部分:

(1)捕获鲁棒语义人脸信息的ID embedding;

(2)具有解耦交叉注意力的轻量级适配模块,方便图像作为视觉提示;

(3)IdentityNet网络,它通过额外的空间控制对参考图像的详细特征进行编码,最终完成图像生成。

21726548c9ed9dcecbf2da372e2bc3e3.png

而相比业内此前的工作,InstantID有几点不同:

一是不用训练UNet,因此可以保留原始文本到图像模型的生成能力,并兼容社区中现有的预训练模型和ControlNet。

二是不需要test-time调整,因此对于特定风格,不需要收集多张图像进行微调,只需要对单个图像进行一次推断即可。

三是除了实现更好的面部保真度,也保留了文本可编辑性。如下图所示,只需几个字,即可让形象变性别、换套装、改发型以及发色。

80235f6a5c3c91db51d7ea477e0b88e3.png

再次强调,以上所有效果只需1张参考图像在几秒内即可完成。

如下图实验证明,多来几张参考图的作用基本不大,1张就能做得很好

5a131b8d1dfb6c28cd234de412525489.png

下面是一些具体对比。

比较对象是现有的免调优SOTA方法:IP-Adapter (IPA)、IP-Adapter-FaceID以及前两天腾讯刚刚出品的PhotoMaker

可以看到,大家都挺“卷”的,效果都不赖——但仔细对比的话,PhotoMaker和IP-Adapter-FaceID保真度都不错,但文本控制能力明显差一点。

b5104aaffcf3ddcfe7c7f4df7c4ef3e6.png

相比之下,InstantID的面孔和样式能更好地融合,在实现了更好保真度的同时,还保留了良好的文本可编辑性。

除此之外,还有与InsightFace Swapper模型的比较,你觉得哪个效果更好呢?

00d56bc9f38540a3b0dfa35452d78650.png

作者介绍

本文一共5位作者,来自神秘的InstantX团队(网上没有搜到太多信息)。

不过一作是来自小红书的Qixun Wang。

通讯作者王浩帆也是小红书的工程师,从事可控和条件内容生成(AIGC)方面的研究,是CMU’20届校友。

958298465f9d0417242546039800f33e.png

参考链接:
https://instantid.github.io/

推荐阅读

欢迎大家加入DLer-计算机视觉技术交流群!

大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。

进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明)

182e2f880b85a56b687ea994938adc8c.jpeg

👆 长按识别,邀请您进群!

944053d3eefa24c7b6c878815197a992.gif

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值