- 博客(2)
- 收藏
- 关注
原创 ResNet_残差网络
打开深度之门——残差网络产生残差网络的原因:虽然网络越越复杂能够完成的任务越多。深效果越好。但达到一定层数后,accuracy就会下降,这种问题称为degradation,该问题不同于梯度消失/梯度爆炸。梯度消失/梯度爆炸从一开始就阻碍网络收敛,我们通过标准初始化或者中间层归一化已经能够解决。 当深度增加时,准确率达到饱和然后迅速下降,并且这种误差和过拟合无关,在增加层数时也使训练错误率下降厉害,
2017-07-14 23:17:52 1656
原创 DL语义分割总结
目前看过的论文有FCN,U-net,还有几个经典网络没有看,看论文速度有待提高,赶紧还债,下面是我对几个语义分割网络的简单理解,后期会补充。另,建议关注一个类似知乎的国外精英网站:Qure) 参考来源 :A 2017 Guide to Semantic Segmentation with Deep Learning 在FCN网络在2104年提出后,越来越多的关于图像分割的深度学习网络被提
2017-07-07 22:43:31 12629
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人