Gradient Descent
最近在搞Deep Leaning,数学不好的我学的头大啊。
在学之前,你或许和我一样
然而
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
现实是
还是边学习边做笔记 o(╥﹏╥)o
简单粗暴,图文并茂
- First
从初始参数起始点 θ 0 θ_0 θ0开始
- Second
计算一下Gradient g 0 g^0 g0
然后,向着Gradient的反方向去Update(更新)参数
其中, θ 1 = θ 0 − η g 0 \boldsymbol{\theta}^{\mathbf{1}}=\boldsymbol{\theta}^{\mathbf{0}}-\eta \boldsymbol{g}^{0} θ1=θ0−ηg0
- Thrid
得到新参数后,不断重复上两步过程
其中, θ 2 = θ 1 − η g 1 \boldsymbol{\theta}^{2}=\boldsymbol{\theta}^{\mathbf{1}}-\eta \boldsymbol{g}^{\mathbf{1}} θ2=θ1−ηg1
直到最终找到 Local Minima
应该算是简单明了了吧,O(∩_∩)O哈哈~
ღ( ´・ᴗ・` )
❤
『
祈愿万家灯火熨烫过脉络,刀山与火海多深刻,都陪你渡过。
』