深度学习
文章平均质量分 77
小可同学呀
祖国利益高于一切
展开
-
多通道图像卷积
综上所述,在整个Conv layers中,conv和relu层不改变输入输出大小,只有pooling层使输出长宽都变为输入的1/2。以python版本中的VGG16模型中的faster_rcnn_test.pt的网络结构为例,如图2,Conv layers部分共有13个conv层,13个relu层,4个pooling层。在Faster RCNN Conv layers中对所有的卷积都做了扩边处理(pad=1,即填充一圈0),导致原图变为(M+2)x(N+2)大小,再做3x3卷积后输出MxN。转载 2020-09-05 16:03:50 · 339 阅读 · 0 评论 -
Tips for Best Training Results
深度学习经验总结:大多数情况下,只要数据集足够大且标记良好,无需更改模型或训练设置即可获得良好的结果。 如果一开始你没有得到好的结果,针对YOLOv5,你可以采取一些步骤来改进。1. 数据集图像数量:推荐每种类别至少大于1500张图片;图像多样性:必须代表已部署的环境。 推荐来自一天中不同时间、不同季节、不同天气、不同光照、不同角度、不同来源(在线抓取、本地收集、不同相机)等的图像;标签一致性: 必须标记所有图像中所有类的所有实例, 部分标签将不起作用;标签准确性: 标签必须紧密地包围每个对象原创 2021-07-27 11:39:17 · 239 阅读 · 0 评论 -
Receptive Field(感受野)
感受野 感受野指的是一个特定的CNN特征(特征图上的某个点)在输入空间所受影响的区域。一个感受野可以用中心位置(center location)和大小(size)来表征。然而,对于一个CNN特征来说,感受野中的每个像素值(pixel)并不是同等重要。一个像素点越接近感受野中心,它对输出特征的计算所起作用越大。这意味着某一个特征不仅仅是受限在输入图片中某个特定的区域(感受野),并且呈指数级聚焦在区域的中心。具体的计算方式如下。输出特征图转载 2020-09-12 20:30:27 · 311 阅读 · 0 评论 -
深度学习卷积操作总结
深度学习卷积操作总结1. 1*1卷积2. 深度可分离卷积3. 残差网络Residual Net1. 1*1卷积① 特征维度匹配:通常在进行大量卷积操作后,利用1*1卷积块的前后尺度一致性,进行特征通道对齐,保证尺度不变而通道个数符合需求,常见操作:升维、降维。(便于add、keras.backend.concatenate、tf.concat、torch.cat等操作)② 全连接层:相当于进行线性变换,将数据映射到需要的特征空间,后面通常接激活函数添加非线性因素。③ 降低参数量:借鉴ResNet中原创 2020-11-23 19:52:48 · 686 阅读 · 0 评论 -
深度学习Tricks
Tricks1. Label Smoothing(标签平滑)2...1. Label Smoothing(标签平滑) 在多分类问题过程中,通常将各种类别信息提取到向量中存储,一般以[0,1,2]的离散形式,被称为one-hot vector。而在最终类别概率的信息存储中,深度学习所得到的one-hot vector通常是[0,1,0],这代表着某一类的概率为1,其余都为0。这种存储的形式在训练损失函数的过程中会有俩个问题: ① 无法保证模型的泛化能力,容易造成过拟合。 ② 预测概率和其余概率相差原创 2020-12-01 20:58:56 · 349 阅读 · 0 评论