深度学习入门(上)-第二章 神经网络模型

12.神经网络整体架构
神经网络
神经网络是层次结构,且是非线性的结构。那么需要指定哪些参数呢?
w1, w2, w3,要明确他们的大小。
非线性的层次结构
非线性的成立需要有激活函数(如sigmoid),使得神经网络的效果很好,表达出非常强大的效果。
这里写图片描述


13.神经网络模型实例演示
激活函数:使结果非线性
Sigmoid
当求完的得分值,数值比较大或者比较小时,函数的导数值都很小,易发生梯度消失的现象,没法更新权值,没法反向传播,神经网络就收敛不了了。层次越多,梯度消失现象就越严重。
Sigmoid出现的问题:梯度消失
relu
Relu激活函数的好处:能够解决梯度消失问题。
神经元的数量会影响最终的分类效果,神经元个数越多,通常情况下,网络模型的效果就越好。越多的神经元就越能表达越复杂的模型,但要提防过拟合现象。
14.过拟合问题解决方案
正则化项在神经网络中的作用: λw2 λ w 2 λ λ 表明了对参数w的惩罚力度。合理的 λ λ 可以增强神经网络的泛化能力。
正则化项
activation
数据预处理
数据预处理
归一化数据:减去均值(以0为中心的数据),除以标准差。
权重初始化:采用高斯初始化或者随机初始化,不能采用全零值初始化,即不能拿常值初始化。
对于偏置b而言,采用0值初始化即可,用常值初始化是没有问题的。

W = 0.01 * np.random.randn(D,H)

Drop Out:
对于全连接来说,过拟合的风险很高。
解决方法:每次迭代时,随机drop out。这种做法非常常见。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值