番外篇 | 斯坦福提出即插即用二阶优化器Sophia :相比Adam实现2倍加速,显著节省大语言模型训练成本

前言:Hello大家好,我是小哥谈。大模型的预训练成本巨大,优化算法的改进可以加快模型的训练时间并减少训练开销。目前大模型的训练优化器基本上都采用Adam及其变体,并且Adam的应用已经有9个年头了,在模型优化方面相当于霸主的地位。但是能否够在优化器方面提高模型预训练效率呢?今天给大家分享的这篇文章是来自斯坦福的最新研究成果,他们提出了「一种叫Sophia的优化器,相比Adam,它在LLM上能够快2倍,可以大幅降低预训练成本」。🌈

     目录

🚀1.基础概念

🚀2.引入步骤

🚀3.详细方法

🍀🍀步骤1:torch_utils.py文件修改

🍀🍀步骤2:trainer.py文件修改

🍀🍀步骤3:更换优化器

  • 12
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Sophia优化器是一种新的模型训练优化器,它是一种轻量级二阶优化器,使用Hessian对角线的廉价随机估计作为预调节器,并通过限幅机制来控制最坏情况下的更新大小。在GPT-2等预训练语言模型上,Sophia以比Adam少了50%的步骤,且实现了相同的预训练损失。\[1\] YOLO是一种目标检测算法,而Yolov8魔术师是一篇关于Yolov8的专栏文章,提供了每一步步骤和源码,帮助读者轻松上手魔改网络。通过阅读这篇专栏文章,读者可以了解如何在Yolov8中进行网络的魔改,包括在不同位置(Backbone、head、detect、loss等)进行创新和改进。\[3\] #### 引用[.reference_title] - *1* *2* [首发Yolov8优化:Adam该换了!斯坦福最新Sophia优化器,比Adam快2 | 2023.5月斯坦福最新成果](https://blog.csdn.net/m0_63774211/article/details/130912702)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [《YOLOv8魔术师》专栏介绍 & CSDN独家改进创新实战&专栏目录](https://blog.csdn.net/m0_63774211/article/details/131519223)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小哥谈

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值