- 博客(4)
- 收藏
- 关注
原创 @[TOC](神经网络与深度学习第五周课程总结)
6.4 语义分割6.4.1 语义分割问题6.4.2 语义分割实现6.4.3 反卷积与反池化6.4.4 FCN具体实现6.4.4.1 FCN实现结构之卷积部分6.4.4.2 FCN训练结果6.4.4.3 FCN评价指标与标注工具。
2023-04-08 21:52:05 96 1
原创 【神经网络与深度学习第四周课程总结】
当网络退化时,浅层网络能够达到比深层网络更好的训练效果,这时如果我们把低层的特征传到高层,那么效果应该至少不比浅层的网络效果差,或者说如果一个VGG-100网络在第98层使用的是和VGG-16第14层一模一样的特征,那么VGG-100的效果应该会和VGG-16的效果相同。从信息论的角度讲,由于DPI(数据处理不等式)的存在,在前向传输的过程中,随着层数的加深,Feature Map包含的图像信息会逐层减少,而ResNet的直接映射的加入,保证了 l+1 层的网络一定比 l 层包含更多的图像信息。
2023-04-02 12:44:36 171
原创 【神经网络与深度学习第三周课程总结】
卷积被定义为:一个函数经过翻转和移动后与另一个函数的乘积的积分。执行卷积的目的是从输入中提取有用的特征一维公式如下:图像卷积(二维)与一维类似:g称作滤波器如图所示,LeNet-5一共包含7层(输入层不作为网络结构),分别由2个卷积层、2个池化层和3个连接层组成,网络的参数配置如表1所示,其中下采样层和全连接层的核尺寸分别代表采样范围和连接矩阵的尺寸表1 LeNet-5网络参数配置。
2023-03-25 15:52:46 88
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人