- 博客(4)
- 收藏
- 关注
原创 神经网络与深度学习课程总结04
基本滑动窗口:在图片上生成一个检测窗口,按顺序扫过图片全部位置,对于每个位置都检测是否存在目标,缺点是滑动次数太多,计算太慢,假设图片大小448 × 448,识别一个目标需要0.05s那么一共需要将近3小时,一般图片中,大多数位置都不存在目标。其中𝑁代表测试集中所有图片的个数,𝑃(𝑘)表示在能识别出𝑘个图片的时候Precision的值,而 Δ𝑟(𝑘)则表示识别图片个数从𝑘 − 1变化到𝑘时(通过调整阈值)Recall值的变化情况。TP: 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数。
2023-04-07 19:44:53 232 1
原创 神经网络与深度学习课程总结03
AlexNet一共有8层可学习层——5层卷积层和3层全连接层,对比LeNet5,池化层均采用最大池化,选用ReLU作为非线性环节激活函数,网络规模扩大,参数数量接近6000万,出现“多个卷积层+一个池化层”的结构。VGG-16对比LeNet5和AlexNet,网络规模进一步增大,参数数量约为1.38亿,由于各卷积层、池化层的超参数基本相同,整体结构呈现出规整的特点。VGG-16的主要特征是随网络深入,高和宽衰减,通道数增多。普通网络的基准模型受VGG网络的启发,卷积层主要有3×3的过滤器,并遵循两个简。
2023-04-01 20:38:52 59
原创 神经网络与深度学习课程总结2
全连接网络:链接权过多,难算难收敛,同时可能进入局部极小值,也容易产生过拟合问题。局部连接网络:顾名思义,只有一部分权值连接。部分输入和权值卷积。填充:也就是在矩阵的边界上填充一些值,以增加矩阵的大小,通常用0或者复制边界像素来进行填充。步长:如图步长为2卷积神经网络结构:构成:由多个卷积层和下采样层构成,后面可连接全连接网络。卷积层:k个滤波器。下采样层:采用mean或max。后面:连着全连接网络。
2023-03-27 15:49:54 57
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人