Link Rules & MLP with sigle or multi output

import torch
import torch.nn.functional as F


def main():
    # link rule
    # x0 = torch.tensor(1)
    # w1 = torch.tensor(1., requires_grad=True)
    # b1 = torch.tensor(1.)
    # y1 = x0*w1+b1
    # w2 = torch.tensor(1., requires_grad=True)
    # b2 = torch.tensor(1.)
    # y2 = y1*w2+b2
    # dy2_dy1 = torch.autograd.grad(y2, [y1], retain_graph=True)[0]
    # dy1_dw1 = torch.autograd.grad(y1, [w1], retain_graph=True)[0]
    # dy2_dw1 = torch.autograd.grad(y2, [w1], retain_graph=True)[0]
    # print(torch.eq(dy2_dy1*dy1_dw1, dy2_dw1))
    # single output perceptron
    # X = torch.rand(1,10)
    # W = torch.randn(1,10, requires_grad=True)
    # O = torch.sigmoid(X@W.t())
    # print(O)
    # t = torch.ones(1,1)
    # E = 0.5 * F.mse_loss(O, t)
    # E.backward()
    # print(W.grad)
    # print((O-t)*O*(1-O)*X)
    # print(torch.eq(W.grad, ((O-t)*O*(1-O)*X).detach()))
    # multi output perceptron
    X1 = torch.rand(1,10)
    W1 = torch.randn(5,10, requires_grad=True)
    O1 = torch.sigmoid(X1@W1.t()) # [1,5]
    t1 = torch.ones(1,5)
    E1 = 0.5 * F.mse_loss(O1, t1)
    E1.backward()
    temp = ((O1-t1)*O1*(1-O1)).detach() # [1,5]
    print("X1:\n{}\nW1:\n{}\nO1:\n{}".format(X1,W1,O1))
    print("W1.grad:\n{}".format(W1.grad))
    print("W1.grad`:\n{}".format((X1.t()@temp).t()/5))
    print(torch.eq(W1.grad, (X1.t()@temp).t()/5))
    pass


if __name__ == '__main__':
    main()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值