- 博客(18)
- 资源 (13)
- 收藏
- 关注
原创 CNN卷积神经网络之DCN(Deformable Convolutional Networks、Deformable ConvNets v2)
可变形卷积网络Deformable ConvNets V1、V2前言一、Deformable Convolutional NetworksDeformable ConvolutionDeformable RoI PoolingPosition-Sensitive (PS) RoI Poolingoffset偏移学习实验效果思考二、Deformable ConvNets v2Stacking More Deformable Conv LayersModulated Deformable ModulesR-CN
2021-04-27 20:28:02 13627
原创 目标检测之FPN Feature Pyramid Networks for Object Detection
目标检测之FPN前言FPNFaster RCNN中的FPN前言论文:《Feature Pyramid Networks for Object Detection》论文地址:https://arxiv.org/pdf/1612.03144.pdf识别不同大小的物体是计算机视觉中的一个基本挑战,我们常用的解决方案是构造多尺度金字塔。本论文是2017年所出的,没啥多说的,直接进入主题。FPN1)图a所示,整个过程是先对原始图像构造图像金字塔,然后在图像金字塔的每一层提出不同的特征,然后进行相应的预
2021-04-26 16:28:29 626
原创 CNN卷积神经网络之EfficientNet
CNN卷积神经网络之EfficientNet前言设计方法和对比实验网络结构小结前言《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》论文地址:https://arxiv.org/pdf/1905.11946.pdf这是2019年的一篇炼丹的单方,给出了从深度、宽度、分辨率三个维度的设计方案。以往的网络设计通常是依靠提升一个方面来提升性能,而EfficientNet是三者复合的方式提升网络性能,在NAS搜
2021-04-24 19:18:49 1434
原创 Conv1d 2d 3d、空间可分离卷积Separable Conv、分组卷积Group Conv、深度可分离卷积Depthwise Separable Conv、空洞卷积、可变性卷积
CNN中各种卷积Convolution介绍1.Conv1d 2d 3d2.空间可分离卷积Separable convolution扁平卷积Flattened convolutions3.分组卷积Group Conv混合分组卷积Shuffled Grouped Convolution4.深度可分离卷积Depthwise Separable ConvDepthwise ConvolutionPointwise Convolution5.空洞卷积(扩张卷积)Dilated Convolutions6.反卷积(转置
2021-04-23 19:38:48 3299
原创 神经网络权重初始化代码 init.kaiming_uniform_和kaiming_normal_
神经网络权重初始化--容易忽视的细节为什么要初始化初始化方法为什么要初始化权重初始化的目的是防止在深度神经网络的正向(前向)传播过程中层激活函数的输出损失梯度出现爆炸或消失。如果发生任何一种情况,损失梯度太大或太小,就无法有效地向后传播,并且即便可以向后传播,网络也需要花更长时间来达到收敛。初始化方法建议可以看看这个:《Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classificatio
2021-04-23 14:03:57 22430 14
原创 Numpy/Pytorch之数据类型与强制转换 总结
Numpy/Pytorch之数据类型与强制转换 总结numpy的数据创建和类型转换Torch的数据创建和类型转换Numpy和Torch之间相互转换1.利用专门设计的函数,进行转换:2.直接利用数据创建矩阵(不能称为类型转换,是新建数据):禁止转载!!!numpy的数据创建和类型转换① 用一维列表创建import numpy as npnp.array([1,2,3])② 用元组创建np.array((1,2,3))③ 创建多维数组np.array( [ [ 1, 2, 3, 4
2021-04-22 16:48:50 2440 1
原创 CNN卷积神经网络之ResNeXt
CNN卷积神经网络之ResNeXt前言前言《Aggregated Residual Transformations for Deep Neural Networks》论文地址:https://arxiv.org/abs/1611.054312017CVPR上的论文,ResNeXt是ResNet和Inception的结合体,因此你会觉得InceptionV4有些相似,但却更简洁。...
2021-04-20 16:41:45 973
原创 IoU计算代码
IoU计算代码前言torch实现的方式numpy实现的方式前言刚入门的时候,尤其对于算法,很多东西不自己亲自写一遍是很难真正理解透的。最近在准备复现yolo的代码,对于IoU的实现,就遇到一点小问题,在此记录一下。torch实现的方式矩阵运算速度更快,代码更简洁。这里取最大最小值,需要利用广播的机制。def bbox_iou(box1, box2,): """ x1y1x2y2格式 Returns the IoU of two bounding boxes """
2021-04-15 15:25:54 955
原创 batchsize的选择和学习率调整
batchsize的选择和学习率调整增大Batch_Size的好处:数据的处理速度加快,跑完一次 epoch(全数据集)所需的时间减少。在一定范围内,一般来说 Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小。尤其是网络中有BN层,过小的batchsize网络性能会急剧下降。另一方面,大的batch size梯度的计算更加稳定,因为模型训练曲线会更加平滑。在微调的时候,大的batch size可能会取得更好的结果。盲目增大Batch_Size的坏处:跑完一次 epoch(
2021-04-14 21:02:02 12255 2
原创 Visible Deprecation Warning: Creating an ndarray from ragged nested sequences (which is list or tupl
VisibleDeprecationWarning: Creating an ndarray from ragged nested sequences (which is a list-or-tuple of lists-or-tuples-or ndarrays with different lengths or shapes)is deprecated. If you meant to do this, you must specify 'dtype=object' when creating the
2021-04-14 14:46:51 16505 10
原创 pytorch numpy .size .shape
pytorch numpy 的.size .shapetorch.size() torch.shapenp.size np.shapePyTorch中的size与numpy中的shape含义一致,都是指 tensor 的形状。torch.size(j)、np.shape[i]都是指当固定其他维度时,该维度下元素的数量。torch.size() torch.shapeimport torcht=torch.tensor([[1,1],[2,3],[2,2]])print(t.size())pri
2021-04-14 09:21:40 687
原创 pytorch .detach() .detach_() 和 .data 切断反向传播
pytorch .detach().detach_()和 .data 切断反向传播.data.detach().detach_()补充:.clone()当我们再训练网络的时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整;或者只训练部分分支网络,并不让其梯度对主网络的梯度造成影响,这时候我们就需要使用detach()函数来切断一些分支的反向传播。不过在查看前人写的一些代码时,经常会看见.data,下面介绍一下区别:.dataimport torcha = torch.tenso
2021-04-13 19:29:31 784
原创 pytorch保存和加载训练模型
pytorch保存和加载训练模型torch.save()torch.load()del checkpointtorch.save()torch.save()可以保存一个字典,这里除了保存预训练模型的权重之外,还可以保存一些训练信息:torch.load()torch.load()可以加载一个字典:del checkpoint加载到模型之后,删掉原有的checkpoint以节省内存。del checkpoint # dereference seems crucial...
2021-04-09 15:04:04 353 2
原创 python中的[:::]、[::-1]
python中的[::1]、[::-1]python中的列表,实际上是[start,end,step],只要记住这个其它的万变不离其宗,迅速得出答案。(默认情况下,可以不写step=1,记得[0:2)左闭右开,除非是缺省的,表示到头。)下面举例:a=[0,1,2,3,4,5,6,7,8,9]#从左往右数-->b=a[:7:2]#从左边的头+2 到右边7的开区间 ==>[0, 2, 4, 6]b=a[3::3]#从左边闭区间+3 到最右边的头==>[3, 6, 9]#从右往左数
2021-04-09 10:46:07 614
原创 AP AR mAP ROC AUC(目标检测)
目标检测之AP AR mAP (Evaluation metrics)混淆矩阵中 TP、TN、FP、FNPrecision查准率和Recall召回率P-R曲线AP mAPAR总结禁止转载!在做目标检测任务的时候,通常会制定规则来评估性能,就如下图所示,后面会慢慢道来其中的原理。混淆矩阵中 TP、TN、FP、FN在目标检测中,通常以IoU阈值作为正负样本的划分标准。T表示预测对了,F表示预测错了,P和N表示预测值。Precision查准率和Recall召回率P-R曲线P-R曲线是以Pre
2021-04-08 16:34:57 5570 7
原创 pytorch在dataloader卡住
问题描述:程序卡死在了dataloader(),但是原本是可以跑的,中途中断了一次之后,后来就不行了。原因分析:这种情况应该是属于pytorch多线程锁死,大多数情况是numwork数量多于了cpu的核数。解决方案:1.查看CPU个数cat /proc/cpuinfo | grep "physical id" | uniq | wc -l2.查看CPU核数cat /proc/cpuinfo | grep "cpu cores" | uniqnumwork设置为6。...
2021-04-05 14:22:50 1920
原创 aria2c: command not found
问题描述:aria2c: command not found原因分析:缺少aria2c工具。aria2c是快速下载工具. 支持HTTP(S), FTP, SFTP, BitTorrent, and Metalink。解决方案:Ubuntu安装aria2c:sudo apt-get install aria2不同系统可以用的命令:下次如果什么command not found,去这里 禁止以任何形式转载 ...
2021-04-01 18:21:14 4178
原创 目标检测IoU GIoU DIoU CIoU EIoU Loss
IoU GIoU DIoU CIoU LossIoU LossGIoU LossDIoU LossCIoU LossIoU LossGIoU LossDIoU LossCIoU Loss
2021-04-01 14:18:24 1147
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人