关于pytorch sharing weights的初步思考

参数共享 李宏毅老师

1.在实现universal-transformer,其中的transition function 是共享参数的。想起李宏毅老师的说法:

  • 实现共享参数,我们要给这些参数同样的初始化,然后在梯度更新的时候我们让参数值减去所有对应参数梯度的和(当然,会乘以学习率)

2.那么,如果按照李老师所说,是不是意味着我们要在每一层都定义一个对象,在优化时,我们便不能使用 optimizer.step()。而是应该改变参数更新的办法。
实行起来有一定困难

如果我们 定义一个模块 重复使用呢

3.那么,如果按照我们最直观的想法,我们让这些层都使用一个对象,似乎就实现了torch的做法。
如果这样的话,和原文提到的共享参数是一个意思吗?
按照直观理解来说,参数共享的意思就是:这些层共用一个参数。对吧,我们从整个神经网络的流程来看共享,无外乎就是我们有很多层,如果我们按照原来的方式,每个层的梯度肯定都是不一样的。那么我们更新着,肯定就不能实现参数的共享了。所以,这是参数共享的来源,李宏毅老师所讲,应该也是出于这个方面。是参数共享在自动求导方面上的一个方式。

而如果我们是用共享一个对象的做法的话,我们就需要看一下 pytorch 重复利用对象时,是如何做梯度更新的呢?

pytorch 共用一个层的求导机制:

其实就是这样,如果我们重复调用一个层的话,在pytorch反向传播的时候,其实是将梯度进行了累加。在做法上和上述是一样的。那么,这是不是就是意味着我们可以用pytorch 定义一个层然后反复利用,或者是定义一个参数,然后定义多个层,然后使用同一组参数。奶思,应该就是这样子!
我一定是脑子出问题了,这么简单居然想不到,一直在纠结是否要定义多个层,然后在优化的时候 定义不同的东西,然后进行反向传播

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值