最强开源大模型再次易主,Llama3登顶王座!

Meta发布的新一代开源大模型Llama3在参数规模、训练数据和多语言支持上超越了前作,尤其是8B版本在低资源设备上表现优秀。尽管在数学计算上不如预期,但Llama3以其高响应速度和开源特性受到关注,期待与GPT-4等竞争加剧。
摘要由CSDN通过智能技术生成

前言:

前阵子马斯克Grok-1.5的开源宝座,还没坐热乎,Meta在这两天就发布了最新一代的开源大模型Llama3,直接飙到了大模型排行榜的头部,力压Claude3 Opus,媲美GPT-4,今天就来盘点一下这个最强的开源大模型,到底强在哪儿?


先介绍一下Meta这次发布的两个版本的大模型

Llama3-8B:

  1. 参数规模:Llama-3-8B是一个具有80亿参数的语言模型
  2. 性能:根据Meta的测评报告,Llama-3-8B在某些任务上的性能超过了之前700亿参数的Llama-2-70B模型。
  3. 训练数据:Llama-3-8B在超过15万亿tokens的数据集上进行了预训练,该数据集是Llama-2的七倍多,并且包含了更多的代码数据。
  4. 多语言支持:预训练数据集中包含5%的非英语数据,支持多达30种语言,尽管主要性能以英语为主3。
  5. 优化:Llama-3-8B Instruct针对对话应用进行了优化,结合了超过1000万的人工标注数据,通过多种技术进行训练,包括监督式微调(SFT)、拒绝采样、近端策略优化(PPO)和直接策略优化(DPO)。
  6. 应用:Llama-3-8B因其较低的参数数量,可以在具有24G显存的系统上流畅运行,适合成本敏感的应用场景。

Llama-70B

  1. 参数规模:Llama-3-70B是一个更大规模的语言模型,具有700亿参数。
  2. 性能:尽管Llama-3-8B在某些任务上展现出色,但Llama-3-70B因其更大的参数规模,复杂任务和细微语言理解上会有更出色的表现。
  3. 训练:与8B版本一样,70B版本也在大规模数据集上进行了预训练,使得模型在多种任务上都具有较高的性能。
  4. 应用场景:相比于8B版本,70B版本更适合处理更复杂语言任务的场景,比如,深度语言理解、创意写作、编程等。

这两个版本都是开源的大模型,才刚发布几天,在HuggingFace上已经取得了惊人的数据

在大模型rank榜上,直接干到了头部的位置,甚至压过了Claude的超大杯(Opus)

LLama-3使用了超过15万亿(15T)tokens的公开在线数据进行预训练

数据量是Llama-2的七倍多,并且包含四倍多的代码数据

预训练数据集覆盖了超30种语言,但是非英语类的语言只有不到5%,所以对于中文用户来说可能不是很友好。

目前Llama3可以直接在Groq上直接免费使用

Groq还提供了每秒输出800个tokens的强大功能,这是什么样的概念呢。就相当于一秒钟Llama3能够直接回复我们大约500个汉字。

而GPT-4和Claude3 Opus的水平分别为:36tokens/每秒  18tokens/每秒

该说不说,GPT-4虽然好用,但是真的该提提速了,再这样下去,用户怕是要继续流失

很多网友都在社交媒体上,开源才是大模型的最优解!

1400tps,网友直呼wtf

接下来,我们就实际体验一下Llama3的水平到底咋样,

老规矩,先测一下数学计算能力

6235842的平方根是多少?
565547854121的平方是多少?

答案显而易见,两个问题都错了,原以为是语言的问题,然后换成英语又试了一遍,答案还是一样,看来在回答数学问题上,Llama似乎还差点意思?

我们在换几个问题试试

问题 1: 逻辑 

一只蜗牛在 20 英尺深的井底。每天,它爬上 3 英尺,但晚上,它滑回 2 英尺。蜗牛需要多少天才能到达井顶?

A) 10 天 B) 12 天 C) 15 天 D) 18 天

它回复我们的是19天,然而正确答案是D,有意思的是它给出了推理过程,答案竟然也还是错了

我又问了一下GPT-4,结果GPT-4也答错了,有点滑稽咱就说。

问题 2: 代数 

家面包店在某天卖出了 480 个麻薯和蛋糕。卖出的麻薯数量比蛋糕多 120 个。请告诉我,当天面包店卖出了多少个麻薯和蛋糕?

问题 3: 编程 

使用 C# 编写一个程序,生成一个长度为 8 个字符的随机密码,包括大写字母、小写字母和数字。密码至少包含一个大写字母、一个小写字母和一个数字。

Llama3和GPT-4给出的代码都比较完整,没有明显的问题。

综上,通过几个小测试,来帮助大家了解一下Llama3的大概情况,需要特别注意的是,在使用Llama3的过程中,需要每次强调用中文回复,否则它大概率回给你回复成英文的


好了,今天的测试到这里就结束咯,简单做个总结,整体来看,Llama3的响应速度的确是目前大模型中的头一档,每秒800tokens能够节省太多的时间,并且作为一个开源大模型,Llama3的可塑性更强,且对于大部分用户来说都比较友好。最重要的是,目前免费,而且不限速,不限次。相信,就这两个月以来,发布的诸多大模型,应该足够给Openai带来一点点压力了吧,希望奥特曼能尽早官宣GPT-5!快都卷起来,让我们用上最好的大模型!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值