北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务...

北京大学和中山大学团队推出Chat-UniVi,这是一个130亿参数的多模态大模型,能够在混合图片和视频数据上训练,无需修改就能应用于图像和视频任务。模型采用动态视觉token表示图像和视频,减少了训练和推理成本,且在多项基准上表现出色。Chat-UniVi已在GitHub和Hugging Face开源。
摘要由CSDN通过智能技术生成
一个北大投稿 发送至 凹非寺
量子位 | 公众号 QbitAI

训完130亿参数通用视觉语言大模型,只需3天

北大和中山大学团队又出招了——在最新研究中,研究团队提出了一种构建统一的图片和视频表征的框架。

利用这种框架,可以大大减少VLM(视觉语言大模型)在训练和推理过程中的开销

d3d569ca978a6866c4e7ac497a40671b.png

具体而言,团队按照提出的新框架,训练了一个新的VLM:Chat-UniVi

Chat-UniVi能在混合图片和视频数据的情况下进行训练,并同时处理图片任务和视频理解任务。

以此为基础,Chat-UniVi在图片及视频上的17个基准上,都表现得还不错。

b1ea4561994d620cb32e202a8e8eef53.png

现在,项目已经在GitHub和抱抱脸上开源。

更多关于新方法和Chat-UniVi的详细信息,我们一起进一步来看看~

Chat-UniVi是什么?

了解基础信息后,我们详细地聊聊Chat-UniVi究竟是什么——

简单来说,Chat-UniVi是一个统一的多模态大型语言模型,可以同时理解图像和视频。

目前VLM运用的方法,偏图片理解的,往往使用大量视觉tokens来获得更精细的空间分辨率。

偏视频理解

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值