GD(gradient descent):梯度下降法(BGD,SGD,mini-batch GD)
梯度下降法(GD,gradient descent)是一种优化方法,比如对某个损失函数进行最小化的优化。其共有三种:BGD,batch gradient descent:批量梯度下降SGD,stochastic gradient descent:随机梯度下降mini-batch GD,mini-batch gradient descent:小批量梯度下降BGD 假设有损失函数...
原创
2020-03-08 13:32:01 ·
15528 阅读 ·
1 评论