![](https://i-blog.csdnimg.cn/direct/7c7663c32f18403fb913b90b3857f156.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
Diffusion图像生成系列
文章平均质量分 95
Diffusion图像生成相关论文阅读感想,原理解析
德善的二分之一可爱
努力升级打怪
展开
-
Peft库的LoraConfig详解(附彩铅风格微调实验)
从这三个实验来看,训练参数的增加好像仅仅只是增加了图像的清晰度。Lora训练的参数不是越多、越大就越能提升效果。如果给模型定制了太多学习任务,反而会学不来。参数设置得太复杂,模型可能会“消化不良”,不是学到太过了,就是根本学不会,这就叫过拟合或者难训练。所以啊,重要的是要通过不断的实践,像是做实验那样,一点点调整。可能有时候少一点参数,模型的表现反而会更好,更灵活,更能适应不同的情况。这就是为啥我们要在实际操作中多动手试试,找到那个能让Lora表现最佳的“黄金比例”~原创 2024-07-12 17:12:34 · 911 阅读 · 0 评论 -
图像检索在ImageNet分类任务中的优势:超越扩散模型生成图像
今天要聊到的这篇论文更全面地探究了扩散模型在下游任务如分类的贡献程度,作者在imageNet数据集上应用了4种不同的数据增强方法,一种为从Laion-5b数据集中直接图像检索得到同类别的图片,其余三种为基于扩散模型的数据增强方法,分别在这些增强后的训练集上训练ResNet50,并比较这四种数据增强方法的分类正确率。最后结论:通过简单的图像检索方法来获取额外数据,比使用扩散模型生成的新图像更能提升下游任务的性能。图1展示了分类正确率的对比。原创 2024-08-01 09:00:00 · 790 阅读 · 0 评论