ChatGLM:A Family of Large Language Models from GLM-130B to GLM-4 All Tools

ChatGLM: A Family of Large Language Models from GLM-130B to GLM-4 All Tools

相关链接:arxiv
关键字:Large Language ModelsGLMTransformerPost-training AlignmentMulti-language

摘要

本文介绍了ChatGLM,这是一个不断发展的大型语言模型系列,我们一直在开发中。本报告主要关注GLM-4语言系列,包括GLM-4、GLM-4-Air和GLM-4-9B。这些代表了我们训练的最先进的模型,它们结合了之前三代ChatGLM的所有见解和经验教训。迄今为止,GLM-4模型主要在中文和英文上进行了预训练,使用了大约一万亿个token,以及来自24种语言的一小部分语料库,并主要针对中文和英文使用进行了优化。通过多阶段后训练过程,包括有监督的微调和从人类反馈中学习,实现了高质量的对齐。评估表明,GLM-4在诸如MMLU、GSM8K、MATH、BBH、GPQA和HumanEval等通用指标方面与GPT-4不相上下或表现更佳,在按照IFEval测量的指令跟随方面接近GPT-4-Turbo,在长上下文任务方面与GPT-4 Turbo (128K)和Claude 3相当,并且在使用AlignBench测量的中文对齐方面优于GPT-4。GLM4 All Tools模型进一步对齐,以理解用户意图,并自主决定何时以及使用哪个工具来有效完成复杂任务。在实际应用中,它在通过Web浏览访问在线信息和使用Python解释器解决数学问题等任务中与GPT-4 All Tools相匹配甚至超越。在此过程中,我们开源了一系列模型,包括ChatGLM-6B(三代)、GLM-4-9B(128K、1M)、GLM-4V-9B、WebGLM和CodeGeeX,仅在2023年就在Hugging face上吸引了超过1000万次下载。开放模型可以通过https://github.com/THUDM和https://huggingface.co/THUDM访问。

核心方法

image.png

  • 模型架构:GLM系列基于Transformer架构,采用了无偏置的Query、Key、Value(QKV)注意力机制,RMSNorm和SwiGLU替代了传统的LayerNorm和ReLU。
  • 数据预处理:预训练语料包括多语言文档,经过去重、过滤和分词处理,使用了字节级BPE算法优化词汇表大小。
  • 上下文长度扩展:通过位置编码扩展和持续训练,模型的上下文长度从2K扩展到32K,再到128K和1M。
  • 后训练对齐:通过有监督的微调(SFT)和基于人类反馈的强化学习(RLHF),进一步优化模型以符合人类偏好。
  • 多工具使用:GLM-4 All Tools模型能够理解用户意图,并自主选择最合适的工具来完成任务,如Web浏览器、Python解释器、文本到图像模型等。

实验说明

实验结果数据使用如下表格展示,并对实验进行详细说明:

模型MMLUGSM8KMATHBBHGPQAHumanEval说明
GLM-4-9B74.784.030.476.3-70.1多语言预训练,上下文长度8K,后训练使用与GLM-4相同的流程和数据。
GLM-4-Air-----75.7性能与GLM-4 (0116)相当,具有更低的延迟和推理成本。
GLM-4 (0520)83.393.361.384.739.978.5最新模型,具有更好的性能。

实验数据来源于论文中的评估部分,展示了不同模型在多个基准测试上的性能。数据要求能够准确反映模

  • 28
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

liferecords

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值