记录一下自己使用StyleGan3遇到的问题!
1. 问题描述
1.1 背景
自己使用StyleGan3来训练自己的指纹图像生成模型,当模型训练完成后,使用generate_images.py就兴致冲冲地去生成自己的图片了
1.2 错误信息
可能是比较慢,就等了会,一条一条信息打印出来,随着最后一个Done出来,以为完成了,谁知道没多久就打印出来一堆信息,如下:
Loading networks from "../input/afhqv2model/network-snapshot-000270.pkl"...
Generating image for seed 0 (0/1) ...
Setting up PyTorch plugin "bias_act_plugin"... Done.
Setting up PyTorch plugin "filtered_lrelu_plugin"... Done.
Traceback (most recent call last):
File "../input/stylegan3pytorch/stylegan3-main/gen_images.py", line 143, in
generate_images() # pylint: disable=no-value-for-parameter
File "/opt/conda/lib/python3.7/site-packages/click/core.py", line 1128, in call
return self.main(*args, **kwargs)
File "/opt/conda/lib/python3.7/site-packages/click/core.py", line 1053, in main
rv = self.invoke(ctx)
File "/opt/conda/lib/python3.7/site-packages/click/core.py", line 1395, in invoke
return ctx.invoke(self.callback, **ctx.params)
File "/opt/conda/lib/python3.7/site-packages/click/core.py", line 754, in invoke
return __callback(*args, **kwargs)
File "../input/stylegan3pytorch/stylegan3-main/gen_images.py", line 137, in generate_images
PIL.Image.fromarray(img[0].cpu().numpy(), 'RGB').save(f'{outdir}/seed{seed:04d}.png')
File "/opt/conda/lib/python3.7/site-packages/PIL/Image.py", line 2949, in fromarray
return frombuffer(mode, size, obj, "raw", rawmode, 0, 1)
File "/opt/conda/lib/python3.7/site-packages/PIL/Image.py", line 2876, in frombuffer
return frombytes(mode, size, data, decoder_name, args)
File "/opt/conda/lib/python3.7/site-packages/PIL/Image.py", line 2822, in frombytes
im.frombytes(data, decoder_name, args)
File "/opt/conda/lib/python3.7/site-packages/PIL/Image.py", line 831, in frombytes
raise ValueError("not enough image data")
ValueError: not enough image data
2.解决办法
2.1 措施1(不行)
随后在各种平台找有没有类似的问题,像GitHub、StackOverfolw等翻遍了,没有,也在B站找了一圈,问了个用过的Up主,他说是训练量不够,得了,那好继续训练。最后有整了一周,发现还是这个问题。这个方法不行,没有解决
2.2 最终解决
2.2.1 思路
- 找了一圈,最后觉得自己来吧。就把模型生成的tensor数据打印了出来,一看这样
- 然后又使用了官方模型来试试,tensor数据长这样
- 哎,不对啊,怎么少两行数据呢,真就数据量不够??不对,不对,我的是灰度图像,官方模型是RGB图像,难道是因为这个?有可能!!
- 接着查看代码,看到最后有这么两行代码,如下:
img = (img.permute(0, 2, 3, 1) * 127.5 + 128).clamp(0, 255).to(torch.uint8)
PIL.Image.fromarray(img[0].cpu().numpy(), 'RGB').save(f'{outdir}/seed{seed:04d}.png')
- 报错信息在最后一行代码上,fromarray函数报错,说明是这里数据不对
- 第一行代码时将生成图片矩阵数据转换为0-255期间的uint8格式,方便保存,这个没问题
- 等会,permute这个函数是干什么的,一查,好家伙,是转换维度的,参数为0,2,3,1,灰度图像本来只有一行有用的数据,一转换岂不是可能有问题
- 那就不转换,直接改过来,permute(0,1,2,3)就改成这样,试试
- 还是不行,最后自己把灰度图像的数据格式打印出来看看,发现是个二维的列表,又一看转换后的数据,多了一维,搜嘎
- 最终将转换后的数据取第一个,最后成功了,
2.2 解决措施
修改代码如下:
#img = (img.permute(0, 2, 3, 1) * 127.5 + 128).clamp(0, 255).to(torch.uint8)
#PIL.Image.fromarray(img[0].cpu().numpy(), 'RGB').save(f'{outdir}/seed{seed:04d}.png')
img = (img.permute(0, 1, 2, 3) * 127.5 + 128).clamp(0, 255).to(torch.uint8)
PIL.Image.fromarray(img[0].cpu().numpy()[0]).save(f'{outdir}/seed{seed:04d}.png')
终于解决了,成功生成图片了,
生成图片如图,
看起来还不错!
终于解决了