前言:在微调扩散模型的时候经常会遇到微调数据集和训练数据集之间的差距过大,导致训练效果很差。在图像生成任务中并不明显,但是在视频生成任务中这个问题非常突出。这篇博客深入解读如何解决微调扩散模型时微调数据集和训练数据集之间的差距过大问题?
目录
图片生成中的微调数据集和训练数据集之间的差距过大问题
其实在微调图片生成模型中这个问题并不明显,例如微调一个古风模型,在写实风格的基模上同样可以取得不错的成果,数据怼进去训也不会有太多资源上的压力。
前言:在微调扩散模型的时候经常会遇到微调数据集和训练数据集之间的差距过大,导致训练效果很差。在图像生成任务中并不明显,但是在视频生成任务中这个问题非常突出。这篇博客深入解读如何解决微调扩散模型时微调数据集和训练数据集之间的差距过大问题?
目录
其实在微调图片生成模型中这个问题并不明显,例如微调一个古风模型,在写实风格的基模上同样可以取得不错的成果,数据怼进去训也不会有太多资源上的压力。