Tensorflow2.0 入门与实战学习笔记(一、二)-优化函数、学习率、反向传播

目录

理论知识

1.1多层感知器

1.2梯度下降法

1.3 学习速率-超参数(手工可配置)

1.4 反向传播算法

1.5 优化函数

RMSprop

1.6 网络优化与超参数的选择

1.6.1 如何选择超参数

采用dropout防止过拟合

为什么说Dropout可以解决过拟合?

1.7 实战


理论知识

1.1多层感知器

1.2梯度下降法

1.3 学习速率-超参数(手工可配置)

不合适的学习速率

局部极值点

1.4 反向传播算法

1.5 优化函数

  • SGD 随机梯度
  • adam优化器

常见参数

RMSprop

代码实现

1.6 网络优化与超参数的选择

1.6.1 如何选择超参数

那么如何提高网络的拟合能力

注意:
单层的神经元个数,不能太小,太小的话,会造成信息瓶颈,使得模型欠拟合

13W个可训练参数

结果提高了

 

从正确率来看

  • 欠拟合:测试和训练数据分都低
  • 过拟合:在测试数据上得分比较低,在训练数据分比较

采用dropout防止过拟合

随机森林和集成方法

AlexNet论文中提到

为什么说Dropout可以解决过拟合?

参数选择

因此我们参数训练原则

然后,抑制过拟合---容量上没问题

抑制过拟合 最好的办法是增加训练数据

调整参数-经验

构建网络总原则

总原则:保证神经网络容量足够拟合数据

一、增大网络容量,直到过拟合

二、采取措施抑制过拟合

三、继续增大网路容量,直到过拟合

1.7 实战

如何在网络中添加droupout层

减少网络规模也是一种方法

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

忆_恒心

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值