小菜鸟对GD,SGD,mini batch GD的认识

(1)GD(Gradient Descent):

梯度下降:每次对整个数据集进行训练。

优点:其loss的收敛性好,因为每次参数的调整都考虑到了所有的数据。

缺点:由于深度学习模型的训练依赖于大量的数据,所以每次进行训练都会消耗大量的时间。

 

(2)SGD(Stochastic Gradient Descent):

随机梯度下降:每次挑选一个样本进行训练。

优点:由于每次的参数调整仅考虑一个样本数据,所以每次训练都会节省大量时间。

缺点:其loss的收敛性非常不稳定,因为参数的每一次调整仅仅考虑一个样本数据。

 

(3)mini batch GD:

小批量梯度下降:它是GD和SGD的中和,每次取出batch_size个样本数据来进行训练。

优点:不论是训练过程中的时间消耗方面还是loss的收敛性稳定方面,都不是最差的,当然也不是最好的。

 

时间消耗:GD > mini batch GD > SGD (值越大消耗时间越长)

收敛性稳定情况:GD > mini batch GD > SGD (值越大越稳定)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值