styleclip备忘

开源代码链接:github.com/orpatashnik/StyleCLIP

实现:
1、依赖sytlegan2, 通过迭代方式找到latent vector,实现输入文字,输出符合文字描述的图片(main.py或者optimization_playground.ipynb)。还支持编辑,通过提供latent vector或者stylegan latent space中的随机vector.
2、通过mapper编辑图片,这个mapper也是可以训练的,只要有图片的vector和对应的文字label。
mapper是可以通过latent vector训练出来的。作者提供的mapper是用e4e对某个数据集(celeba-HQ)进行invert变成latent space的vector,基于这些vector和对应的label,训练出文字和latent vector之间的关系。依赖stylegan2(e4e的latent vector生成依赖)和人脸识别网络的ID loss(这个ID loss也是e4e用)。
理解:e4e基于的psp能够给出celeba-HQ的图片的latent vector, celeba-HQ本来就有label, 所以可以快速建立latent vector和文本之间的语义关系。
3、通过global direction来编辑图片,有GUI和notebook(依赖的是官方的基于tensorflow的stylegan2)

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值