Llama 3来了!

fd0144e518b1f51c3e3fad373bcef8d9.jpeg

后台留言『交流』,加入NewBee讨论组

Llama 3 来了!

就在刚刚,Meta官网上新,官宣了Llama 3 80亿和700亿参数版本。

e4daf53a616d1532026315d9dfbeccd3.png

并且推出即为开源SOTA:

Meta官方数据显示,Llama 3 8B和70B版本在各自参数规模上超越一众对手。

8B模型在MMLU、GPQA、HumanEval等多项基准上均胜过Gemma 7B和Mistral 7B Instruct。

而70B模型则超越了闭源的当红炸子鸡Claude 3 Sonnet,和谷歌的Gemini Pro 1.5打得有来有回。

fe3efc19ebd6796352438a7ebab8105c.png

Huggingface链接一出,开源社区再次沸腾。

眼尖的盲生们还第一时间发现了华点:

Meta更藏了一手4000亿参数+的Llama 3版本,不逊于Claude 3超大杯Opus的那种!

0a72cb997da8f4400c1005e084ac4fa8.png

AI写作助手创企HyperWriteAI的CEO见此已忍不住感慨:

我们正在步入一个新世界,一个GPT-4级别的模型开源并且可以自由访问的世界。

6ee8bef398cc36eb15e2807843644272.png

英伟达科学家Jim Fan则认为,还在训练中的Llama 3 400B将成为开源大模型的分水岭,改变很多学界研究和初创公司的发展方式。

06487ac73e6a022296ae636f70fe6d98.png

全面取得SOTA,但8k窗口

更多技术细节,Meta在博客文章中给出。

架构层面,Llama 3选择了经典的仅解码(decoder-only)式Transformer架构,采用包含128K token词汇表的分词器。

训练数据上看,Llama 3的训练数据规模达到了15T tokens,全部来自于公开信息,其中5%为非英文数据,涵盖30多种语言。

Llama 3的数据量比Llama 2的训练数据多7倍,其中代码比Llama 2多4倍。

此外,为了提高 Llama 3 模型的推理效率,Meta AI还采用了分组查询注意力 (GQA)机制,在8192个tokens的序列上训练模型,并使用掩码确保自注意力不会跨越文档边界。

3deeb61629cdd89580c445cd26bfce69.png

结果,无论是8B还是70B版本,Llama 3相较于近似规模的上一代Llama 2,都取得了重大飞跃。

在迄今为止的8B和70B参数规模的模型中,Llama 3都成为了新的SOTA模型。

在语言(MMLU)、知识(GPQA)、编程(HumanEval)、数学(GSM-8K、MATH)等能力上,Llama 3几乎全面领先于同等规模的其他模型。

ae4bbf309bf596d55e690e0253a3a380.png

除了这些常规的数据集,Meta AI还评估了Llama 3在现实场景中的性能,并为此研发了一套高质量的测试数据集。

这个测试集包含了1800条数据,涵盖代码、推理、写作、总结等12 个关键用例,并针对开发团队保密。

结果,Llama 3不仅大幅超越Llama 2,也战胜了Claude 3 Sonnet、Mistral Medium和GPT-3.5这些知名模型。

1babd1264ffaffee3c216a587a0903a0.png

而在AGIEval、BIG-Bench、ARC-Challenge这些更高阶、更困难的数据集上,Llama 3的表现同样可圈可点。

8B版本在这些任务上超越了Mistral和Gemma,70B版本则战胜了Gemini Pro和MoE架构的Mixtral,分别斩获相应规模的SOTA。

f982866f334400d635660437a0d399ef.png

不过美中不足的是,Llama 3的上下文窗口只有8k,这与现在动辄几十上百万窗口的大模型相比,仿佛还停留在上一代(手动狗头)。

d9c1fe57d655a2b363797a47311fd9ba.png

但也不必过度担忧,Matt Shumer就对此持乐观态度,他表示相信在开源社区的努力下,窗口长度很快就会扩展上去。

c85f8c50ee3fd0a3a6436b91fa248a37.png

Llama迎来官方网页版

目前,Llama 3两种参数量的基础和Instruct版本都已上线Hugging Face可供下载。

此外,微软Azure、谷歌云、亚马逊AWS、英伟达NIM等云服务平台也将陆续上线Llama 3。

同时,Meta还表示Llama 3会得到英特尔、英伟达、AMD、高通等多家厂商提供的硬件平台支持。

33cf889e7228a436005352e1c57b8d9c.png

值得一提的是,此次与基础模型一同发布的,还有基于Llama 3的官方Web版本,名字就叫Meta AI。

34e516237311e5510a5c52a7eef1a2b9.png

目前该平台有对话和绘画两大功能,只用对话的话无需注册登录、即开即用,使用绘画功能则需要先登录账号。

5bed3a57f598af8cff21f52f140a3b29.png

不过,目前该平台还不支持中文,也暂未上线文本上传等功能。

2844911442bd36bdc4927d7936b5c3eb.png

代码方面,该平台也能够运行一些简单的Python程序,但似乎只能输出文本,涉及到绘图这样的任务就无法运行了。

00519de6707c32bd33f5a3895e9f52b6.png

总得来看,这个网页版本还比较初级,但也不妨期待一波后面的更新。

One More Thing

一个小插曲是,其实在Meta官宣前几个小时,微软的Azure市场已经偷跑了Llama 3 8B Instruct版本的消息。

19ac984355a00a39fb8a27f41be834fe.png

开源模型机器学习在线平台Replicate上的Llama 3价格表也被网友们第一时间扒拉了出来。

cae9152353b49d2e1e639d688fa9316f.png

但很快,这些“小道消息”就都被404了。

好在乌龙完了,官方也没拖着,关心开源大模型的小伙伴们,可以造作起来了(doge)。

3f3c983ada6479db14f32ef6270715e8.gif

源:量子位

参考链接:

[1]https://ai.meta.com/blog/meta-llama-3/
[2]https://about.fb.com/news/2024/04/meta-ai-assistant-built-with-llama-3/
[3]https://huggingface.co/meta-llama/Meta-Llama-3-70B

一起交流

想和你一起学习进步!『NewBeeNLP』目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 搜索推荐 / 图网络 / 面试交流 / 等),名额有限,赶紧添加下方微信加入一起讨论交流吧!(注意一定o要备注信息才能通过)

91ef530aed6c652ebf1b81454ebb53a8.jpeg

1f7b4ad2aba96af4c06ae629da587ec2.gif

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值