计算机视觉06:机器学习基础

计算机视觉06:机器学习基础

1. 深度学习基础

1. 神经网络和深度学习

在这里插入图片描述

2. 目标函数

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3. 激活函数

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4. 学习步长

在这里插入图片描述
学习步长应该越来越小。

5.SGD(随机梯度下降)问题

在这里插入图片描述

1.动量(一阶)

在这里插入图片描述
在这里插入图片描述

2.Adagrad(二阶)

前面的sgd是对所有的参数统一求导和下降的,但是由于实际数据中可能存在这样一种情况:有些参数已经近乎最优,因此只需要微调了,而另一些可能还需要很大的调整。这种情况可能会在样本较少的情况下出现,比如含有某一特征的样本出现较少,因此被代入优化的次数也较少,这样就导致不同参数的下降不平衡。adagrad就是来处理这类问题的。
adagrad的基本想法是,对每个参数theta自适应的调节它的学习率,自适应的方法就是对每个参数乘以不同的系数,并且这个系数是通过之前累积的梯度大小的平方和决定的,也就是说,对于之前更新很多的,相对就可以慢一点,而对那些没怎么更新过的,就可以给一个大一些的学习率。
在这里插入图片描述

在这里插入图片描述
陡坡:小心往下走;缓坡:走的大步一些。

3. RMSprop(二阶)

这个实际上是对adagrad的一个改进,也就是把Adagrad对历史梯度加和变成了对历史梯度求均值(当然这个不是严格意义上的均值(含参数)),然后用这个均值代替Adagrad的累加的梯度和对当前梯度进行加权,并用来update。
用均值代替求和是为了解决Adagrad的学习率逐渐消失的问题。
在这里插入图片描述

4.Adam(1阶+2阶)

在这里插入图片描述

5. 各种梯度下降算法的比较

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

6. Batch Normalization(有点像正则化)

在这里插入图片描述
在这里插入图片描述

6. 避免过适应

在这里插入图片描述

1. 早期停止训练

在这里插入图片描述

2. 权重衰减

在这里插入图片描述

3. Dropout

在这里插入图片描述
在这里插入图片描述

2. CNN初步介绍

在这里插入图片描述

1. 卷积层

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2. 池化层

在这里插入图片描述
池化和步长为2可以缩小。

3. CNN-Softmax

在这里插入图片描述

4. 卷积层的误差反向传播

重要链接

https://zhuanlan.zhihu.com/p/44361349
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5. 池化层的误差反向传播

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值