deepspeed huggingface传入参数 optimizer和lr_scheduler测试

Trainer中

首先:
WarmupDecayLR= --lr_scheduler_type linear
WarmupLR= --lr_scheduler_type constant_with_warmup

1

TrainArgument不传lr_scheduler_type、optim,warmup_steps=15
ds config文件中定义如下:
在这里插入图片描述
注意:如果不在TrainArgument传入warmup_steps,直接在ds config指定的话会报错,故需要结合使用。

学习率如下:
在这里插入图片描述

2

TrainArgument不传lr_scheduler_type、optim,warmup_steps=15
ds config文件中定义如下:
在这里插入图片描述
学习率如下:
在这里插入图片描述

3

TrainArgument不传optim,warmup_steps=15
lr_scheduler_type=constant_with_warmup
ds config文件中定义如下:
在这里插入图片描述
学习率如下:
在这里插入图片描述
可以得出:deepspeed中的优化器和学习率策略确实是有优先级的,两个都定义的情况下会用deepspeed中的。

推荐用法:optim用deepspeed, lr_scheduler用huggingface的 cosine
cosine学习率图如下:
在这里插入图片描述

PPOTrainer、RLOOTrainer

trl中的相关trainer是不支持deepspeed配置optimizer 和 lr_scheduler的,需要使用huggingface提供的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值