马斯克开源的大模型Grok-1

马斯克旗下xAI开发的Grok-1,一个3140亿参数的开源大语言模型,通过Mixture-of-Experts技术升级,促进了AI研究和创新。开源使模型更易获取,但也强调了高性能硬件的需求,如大量GPU。
摘要由CSDN通过智能技术生成

马斯克开源的大模型是Grok-1

Grok-1是一个参数量达到3140亿的AI大语言模型,其规模超越了OpenAI GPT-3.5的1750亿参数,是目前世界上最大的开源LLM大语言模型。马斯克通过其旗下的AI公司xAI开发了这一模型,并在过去4个月内采用Mixture-of-Experts(MOE)技术进行了开发和改进。

开源Grok-1的决定不仅为研究人员和开发人员提供了更多的创新机会,也进一步推动了AI领域的发展。马斯克此举体现了对开源文化的重视,并为整个开源社区树立了榜样。通过开源,研究人员和开发人员可以在Grok-1模型的基础上进行进一步开发和创新,从而加速AI技术的进步。

开发时间方面,马斯克旗下的AI创企xAI在2023年11月推出了第一代大语言模型Grok,其中Grok-0是最初的版本,拥有330亿参数。随后,经过数次改进,推出了Grok-1。这一过程中,xAI采用了Mixture-of-Experts(MOE)技术,并对模型进行了持续的优化和增强。

开源时间方面,马斯克在2024年3月17日正式宣布开源Grok-1。这一决定兑现了马斯克此前的承诺,并且为全球的AI研究者和开发者提供了宝贵的资源。开源的Grok-1模型是2023年10月完成预训练阶段的基础模型数据,它并未针对任何具体任务进行微调,这为后续的研究和应用提供了极大的灵活性。

Grok-1是当前世界上参数最大的、开源大语言模型。296GB的大小,基础模型基于大量文本数据进行训练,没有针对任何具体任务进行微调;3140亿参数的MoE模型,在给定token上的激活权重为25%;2023年10月,xAI使用JAX库和Rust语言组成的自定义训练堆栈从头开始训练。

开源就是开放源代码,说白了就是开放专利,公开技术但仍需要有足够的GPU才能运行。

可能需要一台拥有628GB GPU内存的机器

英伟达Tesla A100 80G(原版PCIE)京东售价16万,仅8块GPU就接近百万。

其他硬件配置就更不用说了,平民根本玩不起,

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值