书生·浦语大模型实战营之XTuner多模态训练与测试
书生·浦语大模型实战营之XTuner多模态训练与测试在本节课中,我们将学习使用XTuner微调多模态LLM的内容,本部分需要的GPU资源为24GB 30% 的 A100。这是学完本节内容后的多模态LLM性能效果展示:Haotian Liu等使用GPT-4V对图像数据生成描述,以此构建出大量 – 的数据对。利用这些数据对,配合文本单模态LLM,训练出一个Image Projector。所使用的文本单模型LLM和训练出来的Image Projector,统称为LLaVA模型LLaVA: Large Lang
复制链接