今天在看DQN的过程中,对其反向传播的过程有些疑问,于是又复习了一边反向传播。在复习的过程中有了新的理解,在此做一下记录。
反向传播中各层参数的梯度是batch中各个样本对于各个参数的求导的和,这是通过矩阵的乘法实现的。即对batch求和获得与参数维度相同的导数
反向传播过程中对于上游层输出的导数是与之相连的各个下游节点传回的导数与相应权重的加权求和得到的。即对与每个节点连接的参数求和得到(batch, n_features)维度的导数
今天在看DQN的过程中,对其反向传播的过程有些疑问,于是又复习了一边反向传播。在复习的过程中有了新的理解,在此做一下记录。
反向传播中各层参数的梯度是batch中各个样本对于各个参数的求导的和,这是通过矩阵的乘法实现的。即对batch求和获得与参数维度相同的导数
反向传播过程中对于上游层输出的导数是与之相连的各个下游节点传回的导数与相应权重的加权求和得到的。即对与每个节点连接的参数求和得到(batch, n_features)维度的导数