深度学习中的优化算法

链接: [link]https://www.cnblogs.com/guoyaohua/p/8542554.html

种类

1.梯度下降最常见三种(BGD,SGD,MBGD)

三种形式的区别就是取决于我们用多少数据来计算目标函数的梯度,这样的话自然就涉及到一个 trade-off,即参数更新的准确率和运行时间
①1.Batch Gradient Descent (BGD)-----批量梯度下降法
代价函数
J ( θ ) = 1 2 m ∑ i = 1 m ( y i − h θ ( x i ) ) 2 % MathType!MTEF!2!1!+- % feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn % hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr % 4rNCHbWexLMBbXgBd9gzLbvyNv2CaeHbl7mZLdGeaGqipu0Je9sqqr % pepC0xbbL8F4rqqrFfpeea0xe9Lq-Jc9vqaqpepm0xbba9pwe9Q8fs % 0-yqaqpepae9pg0FirpepeKkFr0xfr-xfr-xb9adbaqaceGaciGaai % aabeqacmaabaabauaakeaacaWGkbGaaiikaiabeI7aXjaacMcacqGH % 9aqpdaWcaaqaaiaaigdaaeaacaaIYaGaamyBaaaadaaeWbqaaiaacI % cacaWG5bWaaWbaaSqabeaacaWGPbaaaOGaeyOeI0IaamiAamaaBaaa % leaacqaH4oqCaeqaaOGaaiikaiaadIhadaahaaWcbeqaaiaadMgaaa % GccaGGPaGaaiykamaaCaaaleqabaGaaGOmaaaaaeaacaWGPbGaeyyp % a0JaaGymaaqaaiaad2gaa0GaeyyeIuoaaaa!57E1! J(\theta ) = \frac{1}{ {2m}}\sum\limits_{i = 1}^m { { {({y^i} - {h_\theta }({x^i}))}^2}} J(θ)=2m1i=1m(yih

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值