Overview
总览
题目: Qwen-VL: A Versatile Vision-Language Model for Understanding, Localization, Text Reading, and Beyond
机构:阿里
论文: https://arxiv.org/pdf/2308.12966.pdf
代码: https://github.com/QwenLM/Qwen-VL
任务: 多模态大模型
特点: 支持多语言,多图像,多任务(理解,检测,文本识别)
方法: 三阶段训练(预训练,多任务预训练,指令微调训练),涉及三个组件(语言模型(千问),位置感知的adapter模块,视觉encoder)
前置相关工作:千问,InstructBLIP,LLaVA
摘要
我们推出了 Qwen-VL 系列,这是一组旨在感知和理解文本和图像的大规模视觉语言模型 (LVLM)。这些模型包括 Qwen-VL 和 Qwe
Qwen-VL是阿里推出的多功能视觉语言模型,能理解文本和图像,擅长图像文本描述、视觉问答、定位及文本阅读。它通过三阶段训练,包括预训练、多任务预训练和指令微调,实现对多语言、多图像和细粒度识别的支持。Qwen-VL在多个视觉语言任务中展现出优越性能,超越现有开源LVLM。
订阅专栏 解锁全文

959

被折叠的 条评论
为什么被折叠?



