Mamba原论文收录新会议!新架构在多项任务超越Transformer!

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba/多模态/扩散】交流群

添加微信号:CVer111,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

a6fc67e840abd0145b9d3c6f1a95a3b5.png

西风 发自 凹非寺
转载自:量子位(QbitAI)

“欧洲OpenAI”和“Transformer挑战者”强强联合了!

Mistral AI刚刚推出了其第一个基于Mamba2架构的开源模型——Codestral Mamba(7B),专搞代码生成。

29a188c7c4d9ce711e0a00829cb3f0b3.png

与Transformer架构不同,Mamba架构可进行“线性时间推理”,理论上能够支持无限长度输入。

Mistral AI:这也就是为啥我们用Mamba架构推出的代码推理模型抗打。

ec60bfdad970265230fe1da1f14a3148.png

Mistral AI表示已经在最多256k token上下文中测试了Codestral Mamba。

基准测试中,Codestral Mamba总体性能超越CodeGemma-1.1 7B、CodeLlama 7B、DeepSeek v1.5 7B、CodeLlama 34B。

有网友表示,这一波是Mistral AI要带飞Mamba架构的节奏。

Mamba架构作者之一、CMU助理教授Albert Gu表示:

具有较弱“tokenizations”的不同模态或数据格式(例如代码、byte级建模)会越来越多地从压缩模型(如SSM)中受益。

909b13a9939be653dfa709ce1d34dc33.png

除了Codestral Mamba,Mistral AI这次还同时发布了一个新的数学模型——Mathstral(7B)。

有意思的是,网友让它做这几天大模型频频翻车的“9.11和9.9哪个大”的问题,Mathstral先比较整数,然后再比较小数部分,最后成功做对。

6c5670ec776ab19d6eb104b3df90f6fe.png

3c077d47dacc8ea27c030262bcaf0668.jpeg

7B性能接近22BTransformer

Codestral Mamba完整基准测试结果如下:

9fb5946b0d7b89107962dc840751aa4a.png

在HumanEval C++/Java/JavaScript/Bash等所有基准上,Codestral Mamba全面超越CodeGemma-1.1 7B、CodeLlama 7B,且超越比它更大的CodeLlama 34B。

Mistral AI此前自家的最强开源编程模型Codestral 22B也没有和Codestral Mamba拉开太大差距。

除此外,DeepSeek v1.5 7B在基准中也比较突出,和Codestral Mamba打得有来有回。

DeepSeek v1.5 7B在Spider(复杂跨域语义分析和文本到SQL任务)、HumanEval Java、HumanEval Bash、MBPP等方面优于Codestral Mamba。

除了基准测试结果,Codestral Mamba最令人关注的当属它是首批Mamba2架构模型。

Mamba架构由FlashAttention作者Tri Dao和CMU助理教授、Cartesia AI联合创始人及首席科学家Albert Gu在去年年底提出。

30b8a64ff1488c78d94d0a1c8ca2cb0f.png

此前,ChatGPT等Transformer架构大模型有一大痛点:处理长文本算力消耗巨大。其背后也是因为Transformer架构中注意力机制的二次复杂度。

而Mamba是第一个真正实现匹配Transformer性能的线性时间序列模型,也是一种状态空间模型(SSM,State Space Model)。

Mamba建立在更现代的适用于深度学习的结构化SSM(S4, Structured SSM)基础上,与经典架构RNN有相似之处。

主要有三点创新:对输入信息有选择性处理、硬件感知的算法、更简单的架构

Mamba架构一问世就引起了圈内广泛关注。Stability AI创始人、英伟达科学家Jim Fan等都对它的出现感到兴奋。

8c6e8b162490b842fae55ce49a9154b3.png
11cc8d8d91ec42f60ef6f898c7b4190f.png

Mamba初代论文年初被ICLR拒稿,当时在圈内引起热议。

不过,最近已经被新生代顶流会议CoLM2024接收了。

3f66dd9f5acfafa62f8e4b8450dc9393.png

Mamba2是其二代,状态空间扩大8倍,训练速度提高50%。

Mamba2论文中更是发现,Transformer中的注意力机制与SSM存在着非常紧密的数学联系,论文成功入选ICML 2024。

45559b0e7047a8421ab0cc631f69925e.png

还发布了一个数学模型

除了Codestral Mamba,Mistral AI还同时推出了一个开源数学模型——Mathstral(7B),作为对阿基米德诞生2311周年的纪念。

Mathstral在Mistral 7B基础之上,专注于STEM(科学、技术、工程、数学),上下文窗口32k。

在基准测试中,Mathstral MATH得分56.6%,MMLU达到了63.47%。

重点是,Mathstral还可以通过更多的推理时间计算获得更好的结果:

使用多数投票机制时,Mathstral 7B在MATH测试中的得分为68.37%,而在64个候选模型中应用一个强效奖励模型时,得分能够提升到74.59%。

c83cd720b7df21d7857a5d1c3790c119.png

以下是Mathstral 7B和Mistral 7B在MMLU各科目中的表现差异:

e334a05a3f8ae91122af979196b5b20a.png

参考链接:
[1]https://mistral.ai/news/codestral-mamba/
[2]https://mistral.ai/news/mathstral/
[3]https://x.com/MistralAI/status/1813222156265791531
[4]https://x.com/GuillaumeLample/status/1813231491154899012
[5]https://x.com/theo_gervet/status/1813226968600469824
[6]https://x.com/tuturetom/status/1813238885453033540
[7]https://x.com/WenhuChen/status/1812562112524226569

何恺明在MIT授课的课件PPT下载

 
 

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

ECCV 2024 论文和代码下载

在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集

Mamba、多模态和扩散模型交流群成立

 
 
扫描下方二维码,或者添加微信号:CVer111,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer111,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集上万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请赞和在看
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值