机器学习2 -- 优化器(SGD、SGDM、Adagrad、RMSProp、Adam等)
于 2020-08-27 21:15:04 首次发布
本文详细介绍了深度学习中的主要优化器,包括SGD、SGDM、Adagrad、RMSProp和Adam,讨论了它们的优缺点以及应用场景。针对SGDM和Adam的优化方法,如SWATS、AMSGrad、AdaBound等,也进行了探讨。选择优化器通常根据任务类型,例如CV任务常用SGDM,NLP任务偏好Adam。
摘要由CSDN通过智能技术生成