深度学习
文章平均质量分 78
11111
dzm1204
无爱好
展开
-
YOLO系列-yolov4
yolov4可以使用单卡GPU进行训练,训练任务不能太大,将四张图片融合成一起,借鉴了cutmix的方法,由上图可以知道cutmix效果最好,这样可以提高训练效率和精准度。yolov4还有增加噪音点、随机遮掩、随机裁剪等数据增强。原创 2022-12-19 14:55:00 · 525 阅读 · 0 评论 -
YOLO系列-yolov3
在yolov3中不论速度还是map值都比其他算法高出很多yolov3最大的改进就是网络结构,使其更适合小目标检测特征做的更细致,融入多持续特征图信息来预测不同规格的物体先验框更丰富了,3种scale,每种3个规格,一共9种softmax改进,可以预测多标签任务为了能检测到不同大小的 物体,设计了3个scale在yolov2中为了能检测更小的物体,它把不同大小的特征图融合做成一个向量。这样做的弊端是可能会把一些特征图突出的特征变得不突出在yolov3中设计了3个scale,分别用来检测小中大三种原创 2022-12-05 17:22:25 · 498 阅读 · 0 评论 -
YOLO系列-yolov2
YOLO-V2-更大的分辨率,V1时用的是`224*224`,测试时使用`448*448`,测试的时候用的分辨率一般比较大,因为训练的时候使用`224*224`,测试的时候使`448*448`可能导致模型水土不服,所以V2训练时额外又进行了10次`448*448`的微调,使用高分辨率分类器后,YOLO2的map提升了四个百分点原创 2022-11-30 20:06:26 · 1102 阅读 · 1 评论 -
YOLO系列-yolov1
在做置信度的时候得分类来讨论,一种情况下预测的是前景,一种情况预测的是背景,我希望背景的时候置信度真实值为0,前景的时候置信度真实值是1,对每一个候选框都要去做这一个值,一旦这个候选框跟真实值的IOU大于0.5,这个0.5是可以自己设置的阈值,大于0.5的时候我认为它预测的可能是个前景,所以我希望当前这个框的置信度是1(越接近1越好)。的固定图片大小,固定值不代表只能检测固定大小的东西,固定值的意思只是把图片resize到固定值,图片里面的物体的坐标都会做相应的改变,还是可以映射到原始的输入数据当中。原创 2022-11-22 20:00:08 · 476 阅读 · 0 评论 -
nn.AdaptiveAvgPool2d()笔记
对于`AdaptiveAvgPool3d`只是在`AdaptiveAvgPool2d`的基础上又增加了一维的输入有原来`H * W` 变成 `D * H * W`原创 2022-11-11 09:30:06 · 902 阅读 · 0 评论 -
自动混合精度(AMP)方法autocast和GradScaler
之前大多数的学习框架都是用float32的精度进行训练,AMP做的改进就是使用float32和float16相结合进行训练,并且相同的超参数实现了与使用float32几乎相同的精度autocast 和 GradScaler 一般配合使用,起到作用一般就是减少显存占用,加快模型训练速度。原创 2022-11-10 21:20:34 · 2634 阅读 · 0 评论 -
pytorch中的squeeze()与unsqueeze() 包懂
再比如y的维度是2,1,1,1,1,2则A=2,B=[1,1,1,2],由构成了A * 1 * B 故输出是2,1,1,1,2,有的朋友可能已经想到了如果在加一层squeeze(1)呢,没错和你想得一样会变成2,1,1,2,在继续加会变成2,1,2一直变成2,2。比如x的维度是2,1,2,1,2 则A=2,B=[2,1,2] 则构成了A * 1 * B 故输出是2,2,1,2,如是dim=0则不变这很简单。例如,如果输入的形状为:(A×1×B×C×1×D)则输出张量的形状为(A×B×C×D)原创 2022-11-10 15:24:40 · 989 阅读 · 0 评论 -
EfficientNet
先来看看之前的CNN比较图片来源再来看看主角EfficientNet,从这张图可以看到EfficientNet-B7的acc是最高的,可这还不是最令人惊叹的,再看x轴EfficientNet-B7的参数大小仅在60到70之间,而AmoebaNet-C虽然acc紧跟其后但是参数大小却是EfficientNet-B7的两倍左右。这得益于EfficientNet的混合的模型放缩方法(compound scaling)图片来源。原创 2022-11-09 21:58:24 · 199 阅读 · 0 评论