lr_scheduler_type 参数取值:学习率调度器(Learning Rate Scheduler)和优化器(Optimizer)

前言

lr_scheduler_typeHuggingface transformers Trainer 的 TrainingArguments 之一。注意,如果使用 Deepspeed 启动训练,DeepSpeed 配置文件中的 optim 和 lr schedule 会覆盖传参的值。本文介绍 --lr_scheduler_type 的取值与含义(源码在 transformers/trainer_utils.py)。

在这里插入图片描述

学习率调度器与优化器

学习率调度器(Learning Rate Scheduler)优化器(Optimizer) 是 LLM 训练过程中的两个关键组件,它们各自扮演不同的角色,但又相互关联。优化器的主要职责是:

  • 根据损失函数的梯度来更新模型参数。
  • 通过调整模型参数来最小化损失函数。

常见的优化器包括 SGD、Adam、RMSprop 等。优化器的行为通常由一组超参数控制,最重要的超参数之一就是学习率。本文的主角——学习率调度器(Learning Rate Scheduler)的主要职责是动态调整学习率,以便在训练过程中优化模型的性能和收敛速度。学习

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值