马斯克开源Grok,直接放出巨大的3140亿模型

马斯克旗下的Grok项目发布了开源版本,拥有3140亿参数,是目前最大的公开模型。对比其他开源模型如Llama和Qwen,Grok参数量显著更多。尽管模型实力未知,但此举体现了开放精神,期待更多创新应用。
摘要由CSDN通过智能技术生成

大概在6个小时之前,也就是在我们睡熟的时候。

Grok开源了。

Grok是马斯克旗下XAI的大语言模型项目。在此之前,有一个在线的内测版,只有推特的订阅用户可以体验。

快来看一下新鲜出炉的Grok-1开源版。

从官网主页的大标题下面,可以知道Grok的两个特点。

  • 超级大,拥有3140亿的参数规模。

  • 使用专家混合模型(Mixture-of-Experts)

另外,还有一些信息。

模型的数据应该是截止于2023年10月。

项目遵循Apache2.0许可。

除此之外并没有太多介绍内容。

但是,仅 3140亿这一点,就已经足够震惊世人了。

时至今日,我们已经听过或者用过很多开源模型了。

但是他们开源的版本基本不是很大。

比如国外开源模型领头羊Llama,国内的Qwen等。

Llama模型有四个尺寸,分别是:

  • Llama-7B:参数规模为70亿,是LLaMA模型中最小的版本。

  • Llama-13B:参数规模为130亿,比Llama-7B大一倍。

  • Llama-34B:参数规模为340亿,比Llama-13B大两倍半。

  • Llama-65B:参数规模为650亿,是LLaMA模型中最大的版本

Qwen模型有六个尺寸,分别是:

  • Qwen-1.8B:参数规模为18亿,是Qwen模型中最小的版本。

  • Qwen-7B:参数规模为70亿,比Qwen-1.8B大四倍。

  • Qwen-14B:参数规模为140亿,比Qwen-7B大一倍。

  • Qwen-72B:参数规模为720亿,比Qwen-14B大五倍。

  • Qwen-1.5B-72B:参数规模从1.5B到72B,提供更细粒度的选择。

可以看到,他们中最大的模型才720亿参数。

另外我们再来看看一些闭源模型

比如文心一言传言是2600亿参数。

OpenAI GPT3.5是1750亿参数。

Grok直接一把放出了3140亿参数的模型数。

无论开源闭源,这个参数量,都是相当巨大了。

大部分情况下,很多企业即便有这种规模的模型,也绝对不可能开源给大家用,比如...

马斯克觉得OpenAI应该改名CloseAI,今天他终于跨出实质性的一步,开源了自己的模型。

模型综合实力尚未可知,但是这种开源精神值得赞赏。希望围绕Grok能搞出一些有意思的东西。

另外提醒一下国内的某些公司,快,马斯克开源了,快去... 

然后立马宣布自主研发,遥遥领先!

另外,提醒一下老马,你能不能关心一下我们这种“弱势群体”,搞个mini版Grok啊!所有人都能玩的模型,才是好模型!

  • 8
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

产品大道

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值