反向传播pytorch

这篇博客探讨了两层神经网络的计算过程,包括使用sigmoid激活函数的非线性运算。通过实例展示了如何利用PyTorch进行梯度计算和反向传播,以及权重的更新。博客还强调了在训练过程中对梯度数据清零的重要性,以避免下次梯度累积。
摘要由CSDN通过智能技术生成

如图所示,5维的x需要转变成6维的H,需要6*5=30个权重。以下同理,所以这是一个非常大的工作量。
在这里插入图片描述
两层神经网络计算公式:
在这里插入图片描述
非线性函数,sigmoid函数,右侧为计算图
在这里插入图片描述
找公式的网站:cn.bing.com国内版,找matrix cookbook这本书就可以了。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
反馈计算:
在这里插入图片描述
在这里插入图片描述
l.backward()是个tensor类型(向量无法用backward),为了避免构建计算图,所以需要用.data计算。

import torch
x_data=[1.0,2.0,3.0]
y_data=[2.0,4.0,6.0]

w=torch.Tensor([1.0])
#计算梯度。构建的tensor默认不计算梯度。在有需要的时候才计算。
#w是1*1的矩阵。

w.requires_grad=True

def forward(x):
    return x*w
#此处w是tensor类型的,x需要强制类型转换为tensor类型的

def loss(x,y):
    y_pred=forward(x)
    #w是需要梯度的,所以此处y_pred也是需要梯度的
    return (y_pred-y)**2

print("Predict (before training):",4,forward(4).item())

for epoch in range(100):
    for x,y in zip(x_data,y_data):
        l=loss(x,y)
        l.backward()
        print("\tgrad: ",x,y,w.grad.item())
        
        w.data=w.data-0.01*w.grad.data
        #w.data-=0.01*w.grad.data在这里是不可以的,可能会导致w变类型
        w.grad.data.zero_()
        #要把梯度的数据清零
    print("progress:",epoch,l.item())
    
print("Predict(after training):",4,forward(4).item())

tensor类的变量 只要用了backward就会自动反向求导。
zero是用来导数清零的 防止下一次导数累加。
在这里插入图片描述

在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个简单的复数神经网络反向传播PyTorch代码示例: ```python import torch # 定义输入数据 real = torch.randn(3, 5) # 3个样本,每个样本5个实数输入 imag = torch.randn(3, 5) # 3个样本,每个样本5个虚数输入 input_data = torch.complex(real, imag) # 组成复数输入 # 定义模型参数 w_real = torch.randn(10, 5) # 实部权重矩阵 w_imag = torch.randn(10, 5) # 虚部权重矩阵 bias_real = torch.randn(10) # 实部偏置向量 bias_imag = torch.randn(10) # 虚部偏置向量 # 定义模型输出 w = torch.complex(w_real, w_imag) # 组成复数权重矩阵 bias = torch.complex(bias_real, bias_imag) # 组成复数偏置向量 output_data = torch.sum(w * input_data.unsqueeze(2), dim=1) + bias # 单层全连接层输出 # 定义目标函数 target_real = torch.randn(3, 10) # 实部目标输出 target_imag = torch.randn(3, 10) # 虚部目标输出 target_data = torch.complex(target_real, target_imag) # 组成复数目标输出 loss_func = torch.nn.MSELoss() # 反向传播 loss = loss_func(output_data, target_data) # 计算损失函数 loss.backward() # 反向传播 # 打印参数梯度 print(w_real.grad) # 实部权重矩阵的梯度 print(w_imag.grad) # 虚部权重矩阵的梯度 print(bias_real.grad) # 实部偏置向量的梯度 print(bias_imag.grad) # 虚部偏置向量的梯度 ``` 这是一个简单的单层全连接的复数神经网络,关键是要把每个实部和虚部的参数合成一个复数参数,然后使用复数运算进行前向传播和反向传播。在PyTorch中,支持复数数值类型,即`torch.complex`,可以方便地进行复数运算。在反向传播时,PyTorch会自动计算复数参数的导数,并存储在相应的`.grad`属性中,可以方便地获取。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值