cs231n'18: Assignment 2 | FullyConnectedNets

本文详细探讨了深度学习中全连接网络的梯度检查,包括eval_numerical_gradient、eval_numerical_gradient_array和grad_check_sparse三种实现。此外,讨论了Solver函数的实现,强调了每层权重配置独立的重要性。在训练过程中,注意到五层网络相对于三层网络对初始化尺度更敏感,AdaGrad更新规则可能导致学习速率过小。最后,分享了训练良好FC网络的步骤,包括调整学习率、权重尺度和正则化等参数。
摘要由CSDN通过智能技术生成

Assignment 2 | FullyConnectedNets

gradient check函数的不同实现

到目前为止用到了三个gradient check函数,分别是:grad_check_sparse,eval_numerical_gradient,eval_numerical_gradient_array。

eval_numerical_gradient
def eval_numerical_gradient(f, x, h=0.00001)
f = lambda W: net.loss(X, y, reg=0.05)[0]
param_grad_num = eval_numerical_gradient(f, net.params[param_name])

这里,f函数是net.loss,返回值是一个数字。

eval_numerical_gradient_array
def eval_numerical_gradient_array(f, x, df, h=1e-5):
    grad = np.zeros_like(x)
    it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
    while not it.finished:

        ix = it.multi_index
        oldval = x[ix]
        x[ix] = oldval + h
        fxph = f(x).copy()
        x[ix] = oldval - h
        fxmh = f(x).copy()
        x[ix] = oldval

        grad[ix] = np.sum((fxph - fxmh) * df)/ (2 * h)
        it.iternext()

    return grad
dx_num = eval_numerical_gradient_array(lambda z: affine_forward(x, w, b)[0], x, dout)

这里f函数是affine_forward,返回值out是一个矩阵。所以,要对计算出函数值后, 要对其进行深拷贝:

fxph = f(x).copy()

并且,每次循环算出的仅仅是对x中的一项进行的微分,其结果也是一个数字,并且

dxij
  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值