吴恩达 深度学习 神经网络 softmax adam 交叉验证

神经网络中的层:输入层(layer 0)、隐藏层、卷积层(看情况用这个)、输出层。(参考文章
在这里插入图片描述

激活函数
隐藏层一般用relu函数;
输出层根据需要,二分类用sigmoid,多分类用softmax…在这里插入图片描述前向传播算法参考文章
前向传播python实现
反向传播算法参考文章
用Tensorflow搭建一个神经网络参考文章

多分类问题

  1. softmax回归算法
    左二分类;右多分类 上图中 左二分类;右多分类

算法公式:在这里插入图片描述
2. Softmax回归算法的损失函数在这里插入图片描述
在这里插入图片描述

Adam算法

参考文章

  • 在梯度下降中,学习率α控制着每一步的大小,如果α太小,可能会导致每一步走的太小,从而使梯度下降执行的太慢;相反,如果α太大,可能会导致每一步走的太大,从而使梯度下降来回振荡。
    在这里插入图片描述
  • Adam算法可以自动调整α的大小,来保证可以用最短、最平滑的路径到达成本函数的最小值,通常它比梯度下降算法的速度要更快。
    在这里插入图片描述
  • 在w、b参数每次改变都朝着大致相同的方向移动时,adam算法会加大学习率α
  • 在w、b参数每次改变都不断来回振荡时,adam算法会减小学习率α

交叉验证集

在这里插入图片描述
在这里插入图片描述
首先用训练集训练模型,之后用验证集选出最小的J,即相对最好的模型。
超参数d与 J t r a i n J_{train} Jtrain J c v J_{cv} Jcv的关系:(即随着数据的增多, J t r a i n J_{train} Jtrain J c v J_{cv} Jcv的图)
在这里插入图片描述
λ如何影响 J t r a i n J_{train} Jtrain J c v J_{cv} Jcv:
通过最小 J c v J_{cv} Jcv,可以帮助选择一个合适的λ、d,从而帮助选择合适的模型
补充:下图中的式子为L2正则化(L1和L2正则化的区别
在这里插入图片描述

如何选择一个合适的λ:
从0开始,一次次的增大,找出最小的J。
在这里插入图片描述

学习曲线

通过画学习曲线这种可视化方式,来观察 J c v J_{cv} Jcv J t r a i n J_{train} Jtrain,并判断模型是否有高方差和高偏差。通过高方差、高偏差来改善模型算法。
(貌似一般不咋用,了解即可)参考文章

数据添加

  1. 加新数据
  2. 数据增强:通过旋转、缩小、方法、增加对比度、镜像变换等改变已有的训练样本,来获得一个全新的训练样本
    在这里插入图片描述3. 数据合成:使用电脑上的字体,通过不同的对比度,颜色,字体进行截图得到。
    在这里插入图片描述

迁移学习

参考文章1
参考文章2
在这里插入图片描述
举例:你要训练狗的图片,但你先用猫的图片进行训练模型,训练好的模型再用狗的进行训练微调模型。这就是迁移学习。

  • 24
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值