- 博客(3)
- 资源 (16)
- 问答 (4)
- 收藏
- 关注
原创 稀疏自编码
1 怎样理解稀疏性?为什么要加上稀疏性限制?目的是什么?当神经网络遇到什么问题时需要加上稀疏性? 答:自编码神经网络是一种无监督学习算法,它使用BP算法,让目标值等于输入值(O=I)。 那么问题来了,为什么要这样做?直接用I不就好了? 的确,我们并不关心O,我们关心的是中间层S。 中间层S有降维作用,但这种降维与PCA不同,PCA是提取数据的主要特征,直接去掉次要特征,而这里的S层是学习了数
2017-08-18 15:02:53 481
原创 ResNet
1网络结构: ResNet将网络往深里设计的思想发挥到了极致,据说有一千多层的,在ResNet网络中,深刻体会到没有最深,只有更深!那么问题来了,Resnet是怎么做到在这么极深的网络下,训练成功的?因为我们知道,随着网络层数的增加,需要训练的网络参数将不断增加,训练强度将大大提升,对于这种上千层的网络,面临的已经不仅仅只有过拟合的问题了,还有Degradation的问题。 从Resnet的
2017-08-17 21:29:34 677
原创 VGGNet
1 网络结构: 以224*224输入图片为例: 感觉VGGNet就是加深版的AlexNet,都是卷积与池化的叠加,最后再加两层全连接,然后softmax输出。VGGNet有5段卷积,每段卷积由2~3个卷积层后加一个最大池化组成。卷积核的数量也随着层数的增加而增多。VGGNet也沿用了AlexNet数据增强的方法(Multi-Scale)防止模型过拟合。 相较与AleNet,VGGNet最大
2017-08-17 21:13:42 5399
SCI-AI.xlsx
2019-11-18
服务器经常莫名其妙挂
2021-06-29
Mask RCNN训练过程中loss为nan的情况(使用labelme标注的数据)
2019-04-01
烟火检测事件之烟火事件定位,烟火发生的区域
2018-07-26
matlab, CNN,步长不为1的卷积实现
2016-08-27
TA创建的收藏夹 TA关注的收藏夹
TA关注的人