大模型学习路线(7)——多模态模型-CSDN博客 浅析多模态大模型技术路线梳理 CLIP论文讲解和代码实操 多模态之ALBEF—先对齐后融合,利用动量蒸馏学习视觉语言模型表征,学习细节理解与论文详细阅读:Align before Fuse 【论文解读之多模态预训练系列】——ALBEF 多模态超详细解读 (四):VLMo:混合多模态专家的视觉语言预训练 BLIP——统一理解与生成的多模态模型 多模态之BLIP—实现统一的视觉语言理解和生成,细节理解与论文详细阅读:Bootstrapping Language-Image Pre-training BLIP核心模块解读 多模态之CoCa—对比+字幕生成,统一单模态、视觉语言理解和生成任务,细节理解与论文详细阅读:Contrastive Captioners are Image-Text Models Google Research提出超强预训练模型CoCa,在ImageNet上微调Top-1准确率达91%!在多个下游任务上SOTA! 多模态(二)--- CoCa原理与源码解读 一文搞懂多模态:BeiT-3之前的14个多模态+4个周边原理解读 Beitv3: Image as a Foreign Language BEiT Pretraining for All Vision and Vision-Language Tasks 多模态学习6—深入理解BLIP-2 多模态超详细解读 (七):BLIP-2:节约多模态训练成本:冻结预训练好的视觉语言模型参数 BLIP2——优化多模态训练成本 InstructBLIP InstructBLIP:多模态指令微调、 【大模型系列】统一图文理解与生成(BLIP/BLIPv2/InstructBLIP) MiniGPT-4 MiniGPT-4 知识点汇总 LLaVa: 《Visual Instruction Tuning》论文讲解 LLaVA代码全解读(1)—数据 论文详细解读——【LLAVA】Visual Instruction Tuning LLaVA(六)训练你自己的多模态模型 CogVLM: Visual Expert For Large Language Models论文笔记 突破性技术!开源多模态模型—MiniGPT-5 多模态超详细解读 (十一):ImageBind:图像配对数据绑定6种模态 多模态超详细解读 (十二):Meta-Transformer:用一个 Transformer 模型去编码12类模态