GLM-130B

本文介绍了GLM-130B的训练过程,包括其预训练任务——自回归填空,LayerNorm的DeepNorm应用,以及RoPE位置编码。此外,还探讨了大模型训练中的工程挑战,如混合精度训练、激活函数重演、数据并行和模型并行策略,特别是GLM-130B的并行策略,以及训练稳定性问题和模型量化。
摘要由CSDN通过智能技术生成

上周六在直播里看了清华大学曾奥涵同学做的报告“从GLM-130B到ChatGLM:大模型预训练与微调”,整个报告分为三个部分,本文是根据其中的第二段“大规模语言模型系列技术:以GLM-130B为例”中的部分内容整理而成的笔记,可以通过这份笔记快速了解一下GLM-130B的训练过程。完整的直播回放可以在B站观看:

【报告】从GLM-130B到ChatGLM:大模型预训练与微调_哔哩哔哩_bilibili​www.bilibili.com/video/BV1iu4y1Z7bv/?vd_source=8d00c2c0cdbe325ba3b959e4aea901ea​编辑

除了视频以外,以下的论文和博客也可以帮助快速了解GLM-130B:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值