LLMs之Grok-1.5:Grok-1.5的简介、安装和使用方法、案例应用之详细攻略

LLMs之Grok-1.5:Grok-1.5的简介、安装和使用方法、案例应用之详细攻略

导读:xAI公司在不久前发布了Grok-1模型以及模型结构,揭示了公司到去年11月为止在大语言模型研发上的进步。2024年3月28日(美国时间),xAI以“迅雷不及掩耳之势”正式发布Grok-1.5。具体特点如下所示

>> Grok-1.5在算术和编程相关任务中的表现有很大提升,在MATH和GSM8K等数学测评中的得分均有提高。

>> 支持的上下文长度扩大到128K的token,内存容量较之前扩大16倍,可以处理更长更复杂的任务输入。

>> 在需要在长文本中快速提取信息的NIAH测评中,Grok-1.5效果显著。

>> 采用基于JAX、Rust和Kubernetes的分布式训练框架,提高训练稳定性和高效性。

>> Grok-1.5将在近期内面向早期测试人员和现有Grok用户在App Store平台推广应用。

总体来说,Grok-1.5相比Grok-1在算术逻辑和广义语言理解能力等方面有了明显提升,并支持了更长的输入上下文。它采用了优化后的训练系统,提高了模型训练的稳定性和效率。这对提升语言模型应用水平具有重要意义。

目录

相关文章

LLMs之Grok:Grok(一款具有00后特点般幽默、机智和实时的大语言模型)的简介、使用方法、案例应用之详细攻略

LLMs之Grok-1:Grok-1的简介、安装、使用方法之详细攻略

LLMs之Grok-1.5:Grok-1.5的简介、安装和使用方法、案例应用之详细攻略

Grok-1.5的简介

1、能力和推理:MATH、GSM8K、HumanEval

2、长篇上下文理解

3、Grok-1.5基础设施

4、展望未来

Grok-1.5的安装和使用方法

1、安装

Grok-1.5的案例应用


相关文章

LLMs之Grok:Grok(一款具有00后特点般幽默、机智和实时的大语言模型)的简介、使用方法、案例应用之详细攻略

LLMs之Grok:Grok(一款具有00后特点般幽默、机智和实时的大语言模型)的简介、使用方法、案例应用之详细攻略_grok-1怎么使用-CSDN博客

LLMs之Grok-1:Grok-1的简介、安装、使用方法之详细攻略

LLMs之Grok-1:Grok-1的简介、安装、使用方法之详细攻略_grok1 模型训练方法-CSDN博客

LLMs之Grok-1.5:Grok-1.5的简介、安装和使用方法、案例应用之详细攻略

LLMs之Grok-1.5:Grok-1.5的简介、安装和使用方法、案例应用之详细攻略-CSDN博客

Grok-1.5的简介

2024年3月28日(美国时间),xAI以“迅雷不及掩耳之势”正式发布Grok-1.5。Grok-1.5具备改进的推理能力和128K令牌的上下文长度。即将在X平台上推出。

Grok-1.5,是xAI最新的模型,能够理解长篇上下文和进行高级推理。Grok-1.5将在未来几天内提供给早期测试者和现有的Grok用户在X平台上使用。

两周前,xAI发布了Grok-1的模型权重和网络架构,向大家展示了直到去年11月xAI的进展。自那时以来,我们在最新的模型Grok-1.5中改进了推理和问题解决能力。

官网地址:Announcing Grok-1.5

1、能力和推理MATHGSM8KHumanEval

在Grok-1.5中最显著的改进之一是其在编码和与数学相关的任务中的表现。在我们的测试中,Grok-1.5在MATH基准测试中获得了50.6%的分数,在GSM8K基准测试中获得了90%的分数,这两个数学基准测试涵盖了从小学到高中竞赛题的广泛范围。此外,它在HumanEval基准测试中获得了74.1%的分数,该测试评估了代码生成和问题解决能力。

2、长篇上下文理解

Grok-1.5的一个新特性是其能够在其上下文窗口内处理长达128K令牌的上下文。这使得Grok的记忆容量增加了16倍,使其能够利用来自长度大大超过以往的文档的信息。

请注意,GPT-4的分数是从2023年3月的发布中获取的。对于MATH和GSM8K,我们呈现maj@1结果。对于HumanEval,我们报告pass@1基准分数。

该图显示了一个图表,可视化了模型从其上下文窗口中检索信息的能力。x轴是上下文窗口的长度,y轴是要从窗口中检索的事实的相对位置。我们使用颜色标记回忆率。整个图表都是绿色的,这意味着对于每个上下文窗口和要检索的事实的每个位置,回忆率都是100%。

此外,即使上下文窗口扩展,该模型也可以处理更长、更复杂的提示,同时保持其指示遵循能力。在“Haystack ”(NIAH)评估中,Grok-1.5展示了针对长达128K令牌的上下文中嵌入文本的强大检索能力,实现了完美的检索结果。

3、Grok-1.5基础设施

在大规模GPU集群上运行的尖端大型语言模型(LLMs)研究需要强大而灵活的基础设施。Grok-1.5建立在基于JAX、Rust和Kubernetes的自定义分布式训练框架上。该训练堆栈使我们的团队能够以最小的努力规划新的想法并在规模上训练新的架构。在大型计算集群上训练LLMs的一个主要挑战是最大程度地提高训练作业的可靠性和正常运行时间。我们的自定义训练协调器确保问题节点会自动被检测并从训练作业中排除。我们还优化了检查点、数据加载和训练作业重启,以最大程度地减少故障发生时的停机时间。如果你对我们的训练堆栈感兴趣,请申请加入我们的团队。

4、展望未来

Grok-1.5将很快提供给早期测试者,我们期待收到您的反馈,以帮助我们改进Grok。随着我们逐渐向更广泛的受众推出Grok-1.5,我们很高兴地宣布未来几天将推出几个新功能。

Grok-1.5的安装和使用方法

1、安装

等待官方开源中……

Grok-1.5的案例应用

持续更新中……

### 关于 DeepSeek R1 技术信息 DeepSeek R1 是一种大型语言模型的基础版本,其主要功能在于提供强大的推理能力广泛的自然语言处理支持。具体到 **DeepSeek R1 1.5b** 这一特定规模的模型,以下是与其相关的技术细节技术资源: #### 模型架构与特性 DeepSeek R1 被设计为具有高精度高效能的语言理解工具[^2]。它基于 Transformer 架构构建,并通过大规模数据集进行预训练以获得广泛的知识基础。 #### 推理能力增强 为了进一步提高推理性能,后续发布的 **DeepSeek V3** 使用了知识提炼技术从 DeepSeek R1 中提取并增强了这些推理能力[^1]。这意味着即使是在较小规模的模型上也可以实现接近甚至超越原始大模型的表现水平。 #### 安装使用指南 对于希望部署或研究该系列模型的研究者来说,《LLMs之DeepSeek-V3》文档提供了关于如何安装以及实际应用场景下的操作说明[^3]。虽然这份资料重点描述的是V3版本,但由于两者之间存在继承关系,许多概念同样适用于了解R1及其变体如1.5b的情况。 #### 性能对比分析 在与其他开源模型比较时,DeepSeek家族展示了优越的技术指标。例如,在多选题测试(MMLU)中的表现显示出了较高的准确性;而在计算资源消耗方面,则保持较低的成本同时维持高效的推断速度[^4]。 #### 开源贡献承诺 值得注意的是,整个DeepSeek项目致力于推动开放源码领域内的进步发展[^5]。因此,围绕着每一个发布版本都会有丰富的社区讨论支持材料可供查阅学习。 ```python import deepseek as ds model = ds.AutoModel.from_pretrained('deepseek/r1-1.5b') tokenizer = ds.AutoTokenizer.from_pretrained('deepseek/r1-1.5b') text = "Your input text here." tokens = tokenizer.encode(text, return_tensors="pt") output = model(tokens) print(output.logits) ``` 上述代码片段演示了加载 `DeepSeek R1 1.5b` 并执行基本前向传播的过程。 ---
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一个处女座的程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值