HBU_神经网络与深度学习 作业4 前馈神经网络

写在前面的一些内容

本次习题来源于 神经网络与深度学习 pdf电子书的第117页和第118页(对应纸质版第102页和第103页)的习题4-2、4-3、4-7、4-8和4-9,具体内容详见 NNDL 作业4
本实验报告参考了HBU-NNDL 作业4 作者:不是蒋承翰的部分内容。
水平有限,难免有误,如有错漏之处敬请指正。

习题4-2

试设计一个前馈神经网络来解决 XOR 问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用 ReLU 作为激活函数。

XOR运算网络结构图

事实证明没法用ReLU作为激活函数,因为(习题4-3),同时,用Leaky ReLU训练也会出现问题(包括但不仅限于-0问题),所以这里使用ELU作为激活函数进行训练。

:上述问题可以参考 Julia:用多层感知机解决异或问题 作者:强劲九 解决,此处还是继续使用ELU。

代码如下:

import torch

input_x = torch.tensor([[0, 0], [0, 1], [1, 0], [1, 1]]).to(torch.float32)
real_y = torch.tensor([[0], [1], [1], [0]]).to(torch.float32)

from torch.nn.init import constant_, normal_
import numpy as np

class XOR_module(torch.nn.Module):
    def __init__(self, input_size=2, output_size=1, mean_init=0., std_init=1., b_init=0.0):
        super(XOR_module, self).__init__()
        self.fc1 = torch.nn.Linear(input_size, 2)
        normal_(tensor=self.fc1.weight, mean=mean_init, std=std_init)
        constant_(tensor=self.fc1.bias, val=b_init)
        self.fc2 = torch.nn.Linear(2, output_size)
        normal_(tensor=self.fc2.weight, mean=mean_init, std=std_init)
        constant_(tensor=self.fc2.bias, val=b_init)
        # 使用'torch.nn.ELU'定义 elu 激活函数
        self.act = torch.nn.ELU()

    # 前向计算
    def forward(self, inputs):
        outputs = self.fc1(inputs)
        outputs = self.act(outputs)
        outputs = self.fc2(outputs)
        outputs = self.act(outputs)
        return outputs

net = XOR_module()
learing_rate = 0.1
epochs = 10000
loss_function = torch.nn.MSELoss()  # 用交叉熵损失函数会出现维度错误
optimizer = torch.optim.SGD(net.parameters(), lr=learing_rate)

# 进行训练
for epoch in range(epochs):
    out_y = net(input_x)
    loss = loss_function(out_y, real_y)  # 计算损失函数
    loss.backward()  # 反向传播
    optimizer.step()  # 参数更新
    optimizer.zero_grad()  # 对梯度清零,避免造成累加

# 打印计算的权值和偏置
print('w1 = ', net.fc1.weight.detach().numpy())
print('b1 = ', net.fc1.bias.detach().numpy())
print('w2 = ', net.fc2.weight.detach().numpy())
print('b2 = ', net.fc2.bias.detach().numpy())

# 进行测试
input_test = input_x
out_test = net(input_test)
print('input_x', input_test.detach().numpy())
print('out_y', np.around(out_test.detach().numpy()))

代码执行结果:

w1 =  [[ 1.650061   -1.1503348 ]
 [-1.5363238   0.98035395]]
b1 =  [-0.2242281  -0.18534027]
w2 =  [[1.3331912 1.7923447]]
b2 =  [0.5710211]
input_x [[0. 0.]
 [0. 1.]
 [1. 0.]
 [1. 1.]]
out_y [[0.]
 [1.]
 [1.]
 [0.]]

从输出来看,训练得到的结果与异或问题的输出一致。

习题4-3

试举例说明“死亡 ReLU 问题”,并提出解决方法。

死亡 ReLU 问题:反向传播时某次更新时权重更新次数过多,使得神经元输入变为负数,从而输出为0,权重无法更新。

解决办法:换激活函数,例如Leaky ReLU、PReLU和上题中的ELU。

习题4-7

为什么在神经网络模型的结构化风险函数中不对偏置 b \boldsymbol{b} b进行正则化?

加入正则化项的目的是为了防止过拟合,但是偏置对任意的输入都产生同样的效应,这包括 b \boldsymbol{b} b,所以 b \boldsymbol{b} b对过拟合没什么影响,正则化之后还有可能发生欠拟合。

习题4-8

为什么在用反向传播算法进行参数学习时要采用随机参数初始化的方式而不是直接令 W = 0 \boldsymbol{W}=0 W=0, b = 0 \boldsymbol{b}=0 b=0

如果直接令 W = 0 \boldsymbol{W}=0 W=0 b = 0 \boldsymbol{b}=0 b=0,那么在前向传播时,所有隐藏层神经元的激活值会相等,失去了隐藏层多层神经元不同权重的意义。

习题4-9

梯度消失问题是否可以通过增加学习率来缓解?

可以缓解梯度消失问题,但是如果学习率过大,有可能会导致结果只收敛至局部最优解,甚至在计算过程中产生梯度爆炸。

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值