上周六在直播里看了清华大学曾奥涵同学做的报告“从GLM-130B到ChatGLM:大模型预训练与微调”,整个报告分为三个部分,本文是根据其中的第二段“大规模语言模型系列技术:以GLM-130B为例”中的部分内容整理而成的笔记,可以通过这份笔记快速了解一下GLM-130B的训练过程。完整的直播回放可以在B站观看:
除了视频以外,以下的论文和博客也可以帮助快速了解GLM-130B:
上周六在直播里看了清华大学曾奥涵同学做的报告“从GLM-130B到ChatGLM:大模型预训练与微调”,整个报告分为三个部分,本文是根据其中的第二段“大规模语言模型系列技术:以GLM-130B为例”中的部分内容整理而成的笔记,可以通过这份笔记快速了解一下GLM-130B的训练过程。完整的直播回放可以在B站观看:
除了视频以外,以下的论文和博客也可以帮助快速了解GLM-130B: