CNN网络演变

LeNet/AlexNet/VGGNet/Inception/ResNet

LeNet:简单完整基本CNN模型的开端

AlexNet:(1)网络扩大(5Conv+3FC+1softmax);(2)加入Relu;(3)解决过拟合;(4)多GPU计算

VGGNet:网络扩大到十几层

Inception:GooleNet,原来的结点也是网络,网络进一步扩大,性能提升2-3倍。解决过拟合和大模型计算量大的问题。

ResNet:(1)利用残差学习;(2)网络扩大达到1000+层,复杂度保持较低。解决层数太多太深的网络梯度消失的问题。


备注:网络越深,效果并非越好。网络越深,梯度消失问题越严重,网络的堆叠其复杂度可能会加大,训练效果可能越差。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值