小象学院深度学习笔记1(传统神经网络)

神经网络起源于线性回归,是线性到非线性的转变

  即使损失大量特征,因为特征足够多不会对模型的特征获取有太多影响。

线性回归网络可以简化为一层,多个系数矩阵的相乘可以转化成一个系数矩阵

  

赋予不同参数不同的权重值;多目标任务例如目标检测,既要分类又要进行定位;不同的网络模型的loss值得融合,例如VGG+Google,每个网络模型相当于一个神经元。

竞赛和业界中的套路:各种net的ensemble。


对训练的任务不太清楚,推荐一开始采用fixed。


原来的速度维持一点,再和新的learning rate结合。防止变太多,从而导致收敛速度下降。动量和调大学习率的区别:动量是矢量叠加考虑得更多会有一个新的方向会更准,调大学习率没有改变方向。

和动量相比,先前一步算出来两者结合而来

             

课程链接:https://www.bilibili.com/video/av10324235/index_2.html#page=2


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值