深度学习参数和loss总结

AI不惑境  -  学习率和batchsize如何影响模型的性能?

https://zhuanlan.zhihu.com/p/64864995

【AI不惑境】残差网络的前世今生与原理

https://mp.weixin.qq.com/s?__biz=MzA3NDIyMjM1NA==&mid=2649033134&idx=1&sn=69a5be0c1677e55a0311269b0e481242&chksm=8712b7d3b0653ec5211cfd57364bb7d4b8073e620f00f04de734ae2ae7b2e9179ae9d1468e58&token=1855353646&lang=zh_CN#rd

AI不惑有一系列 还有些深度的文章 推荐读读。

通过不断重置学习率来逃离局部极值点

https://blog.csdn.net/malefactor/article/details/78768210

 

你的模型真的陷入局部最优点了吗?

https://www.jiqizhixin.com/articles/2018-07-29-6

如何找到全局最小值?先让局部极小值消失吧

https://www.baidu.com/link?url=h3WNxKyhzoO3cUQFqtMEG2_Z518nZqBHjH1MPfU-RShNevrXMutXQvsTICDFEi-f&wd=&eqid=dbec404300008142000000045d677970

梯度下降学习率的设定策略

https://lumingdong.cn/setting-strategy-of-gradient-descent-learning-rate.html

Must Know Tips/Tricks in Deep Neural Networks阅读笔记

https://www.baidu.com/link?url=2PW2nHe1nOd9aRI5yOgNztv_C8XXajkvf6sKCNfDSpLKypUhmUog_phVUPA4Oq-OlKAPKaF_-XSLXot-brPB5q&wd=&eqid=dbec404300008142000000045d677970

如何避免陷入鞍点(局部最小)

https://blog.csdn.net/lfc2017/article/details/84864302

理解DL的局部最小

https://blog.csdn.net/JeremyCzh/article/details/80100601

深度学习基础--BP和训练--局部最优和鞍点

https://blog.csdn.net/wydbyxr/article/details/84025446

机器学习--“跳出”局部最小值

https://blog.csdn.net/qq_20880939/article/details/79814931

深度学习 - 解决局部最优点问题的方案

https://blog.csdn.net/maqunfi/article/details/82634529

深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)

https://zhuanlan.zhihu.com/p/22252270

人脸识别损失函数综述(附开源实现)

https://zhuanlan.zhihu.com/p/51324547

人脸识别的损失函数解读

https://blog.csdn.net/qq_33948796/article/details/89309893

医学图像分割常用的损失函数

https://blog.csdn.net/Biyoner/article/details/84728417

 

 

 

 

 

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值