神经网络前向反向传播对应pytorch中的顺序

  1. 学过神经网络的都知道,神经网络就是用多元微分来求导,参数每次加上这个参数的负梯度,从而不断地靠近极小值,减少损失。这只是一个大概的过程。其中具体的步骤可能更加复杂。比如多元微分反向传播的时候,具体怎么求值,怎么链接?这里给出一篇文章,看了以后会有很大的启迪。反向传播推导
  2. 其次为什么通过不断地求负梯度就能减少损失呢?这里也给出一篇文章,都是我自己摸索过来地,对我启迪很大,感谢。SGD
  3. 前向传播 —forward
  4. 梯度清零
  5. 损失函数地loss — backward 会将梯度值封印在每一个参数内陆
  6. 优化方法 — optim
  7. 更新梯度 — step 将梯度值进行更新。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个简单的复数神经网络反向传播PyTorch代码示例: ```python import torch # 定义输入数据 real = torch.randn(3, 5) # 3个样本,每个样本5个实数输入 imag = torch.randn(3, 5) # 3个样本,每个样本5个虚数输入 input_data = torch.complex(real, imag) # 组成复数输入 # 定义模型参数 w_real = torch.randn(10, 5) # 实部权重矩阵 w_imag = torch.randn(10, 5) # 虚部权重矩阵 bias_real = torch.randn(10) # 实部偏置向量 bias_imag = torch.randn(10) # 虚部偏置向量 # 定义模型输出 w = torch.complex(w_real, w_imag) # 组成复数权重矩阵 bias = torch.complex(bias_real, bias_imag) # 组成复数偏置向量 output_data = torch.sum(w * input_data.unsqueeze(2), dim=1) + bias # 单层全连接层输出 # 定义目标函数 target_real = torch.randn(3, 10) # 实部目标输出 target_imag = torch.randn(3, 10) # 虚部目标输出 target_data = torch.complex(target_real, target_imag) # 组成复数目标输出 loss_func = torch.nn.MSELoss() # 反向传播 loss = loss_func(output_data, target_data) # 计算损失函数 loss.backward() # 反向传播 # 打印参数梯度 print(w_real.grad) # 实部权重矩阵的梯度 print(w_imag.grad) # 虚部权重矩阵的梯度 print(bias_real.grad) # 实部偏置向量的梯度 print(bias_imag.grad) # 虚部偏置向量的梯度 ``` 这是一个简单的单层全连接的复数神经网络,关键是要把每个实部和虚部的参数合成一个复数参数,然后使用复数运算进行前向传播和反向传播。在PyTorch,支持复数数值类型,即`torch.complex`,可以方便地进行复数运算。在反向传播时,PyTorch会自动计算复数参数的导数,并存储在相应的`.grad`属性,可以方便地获取。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值