activate function及其梯度

激活函数----sigmoid()

tanh激活函数

relu激活函数 

softmax激活函数

这里yi代表pi, zi为自变量,0<=pi<=1,p1+p2+...+pi+...+pc=1

求梯度函数

autograd.grad()直接返回梯度信息

.backward()给变量附加梯度属性

感知机梯度推导

import torch
from torch.nn import functional as F
x=torch.randn(1,10)
w=torch.randn(2,10,requires_grad=True)#标记w为需要梯度信息的对象
o=torch.sigmoid(x@w.t())#加权求和,用sigmoid()激活函数
loss=F.mse_loss(torch.ones(1,2),o)#均方差损失函数
loss.backward()#求对w的梯度
print(w.grad)

输出梯度

tensor([[ 0.0066, -0.0056, -0.0027,  0.0118, -0.0050,  0.0314,  0.0100, -0.0274,
         -0.0006, -0.0448],
        [ 0.0182, -0.0155, -0.0075,  0.0326, -0.0138,  0.0871,  0.0277, -0.0760,
         -0.0017, -0.1241]])

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值