中心思想:随机梯度下降法是每次先将大量的训练集中随机打乱顺序,再取其中固定数量的实例组成mini_batch,按照minibatch进行权重和偏差的更新,重复操作直到所有的数据都按minibatch的规格取完了一遍,这时就完成了一个epoch,然后在按照提前设定好的epoch数量进行重复计算更新。
对于权重的数组结构做一下解释:行数代表前一层的神经元个数,列数代表后向神经元的个数,每一行代表前向的某个神经元分别连接所有后向神经元的的权重。注意区分前向和后向,前向在右,后向在左。
SGD 随机梯度下降法
最新推荐文章于 2024-05-20 12:33:24 发布