学习目标:
论文
实验
学习时间:
2024.2.24-2024.3.1
学习产出:
论文
仔细看了论文"All are Worth Words: A ViT Backbone for Diffusion Models",”DiffiT: Diffusion Vision Transformers for Image Generation“,“Scalable Diffusion Models with Transformers”。其中”Scalable Diffusion Models with Transformers“代码还没有发布;,”DiffiT: Diffusion Vision Transformers for Image Generation“只有256分辨率的,没有32分辨率;正在跑"All are Worth Words: A ViT Backbone for Diffusion Models"的实验。
实验
1.修改了stylegan2仓库的超参,cifar-10的效果还是不行。
2.根据ViTGAN和ViTGAN的BaseLine ContraD中的实验,重新找了两个stylegan2的仓库。第一个是Contrad中的stylegan2,目前已经跑完,修改好了代码在跑diffusion-gan;第二个是论文”Data-Efficient GANs with DiffAugment“实现的模型DiffAugment-stylegan2-pytorch。都可以单独跑stylegan2。