DL4J源码阅读(四):梯度计算

本文深入探讨了DL4J库中梯度计算的过程,从computeGradientAndScore方法开始,逐步解析backprop()、calcBackpropGradients()以及initGradientsView()等关键步骤。在梯度计算中,涉及权重参数、偏移参数的初始化,以及通过backpropGradient()方法在各层之间的误差反传。以输出层的LossNegativeLogLikelihood损失函数和ActivationSoftmax激活函数为例,详细解释了梯度计算的细节,包括Hadamard product在矩阵乘法中的应用。最后,文章对隐藏层的梯度计算进行了阐述,并对代码中可能优化的地方提出了疑问。
摘要由CSDN通过智能技术生成

      computeGradientAndScore方法调用backprop()做梯度计算和误差反传。

      backprop()调用calcBackpropGradients()方法。calcBackpropGradients()方法再调用initGradientsView()方法。在initGradientsView()方法里,先初始化一个数组flattenedGradients  = Nd4j.zeros(new int[] {1, paramLength}, 'f')。这个数组长度是网络所有参数个数,包括每层的权重参数和偏移参数。本例中是102。然后调用layers[i].setBackpropGradientsViewArray(thisLayerGradView)设置每层的权重参数。本例中调用的BaseLayersetBackpropGradientsViewArray()方法。这个方法中对BaseLayer的两个成员变量gradientsFlattenedgradientViews赋值。其中gradientViewsMap<String, INDArray>类型,赋值时,keyWb,分别代表权重和偏移。

       calcBackpropGradients()方法中currPair = outputLayer.backpropGradient(null)计算输出层的梯度。本例中会调用BaseOutputLayer

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值