深度学习知识点(2):标准梯度下降法

目录

 

1、一元函数的梯度下降法

2、多元函数的梯度下降法


梯度下降是一种迭代式的最优化手段,在机器学习中一般用于求目标函数的极小值点,这个极小值点就是最优的模型内部参数。相比求解析解的手段,GD的通用性更强,所以受到广泛的使用。

1、一元函数的梯度下降法

比如求解f(x)=(x-1)2的最小值点

梯度下降的公式为,上标表示第i轮的x值

初始化点x(0) = 4,学习率α= 0.25

第①次迭代:

x(1)= 4 - 0.25*2(4-1)=2.5

第②次迭代:

x(2)= 2.5 - 0.25*2(2.5-1)=1.75

第③次迭代:

X(3)= 1.75 - 0.25*2(1.75-1)=1.375

上图中红色箭头表示梯度方向,每次迭代都朝着负梯度方向移动,可以看出,随着迭代次数的增加,x会趋近于x=1,使得y最小

2、多元函数的梯度下降法

比如求解的最小值点

梯度下降的公式为,上标表示第i轮x的向量

初始化点x(0) = [-4;4],学习率α= 0.25

第①次迭代:

x(1)= [-4;4] - 0.25*2[-4;4]=[-2;-2]

第②次迭代:

x(2)= [-2;-2] - 0.25*2[-2;-2]=[-1;1]

第③次迭代:

x(2)= [-1;1] - 0.25*2[-1;1]=[-0.5;0.5]

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值