自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

qq_41917697的博客

文明其精神,野蛮其体魄

  • 博客(18)
  • 资源 (13)
  • 收藏
  • 关注

原创 CNN卷积神经网络之DCN(Deformable Convolutional Networks、Deformable ConvNets v2)

可变形卷积网络Deformable ConvNets V1、V2前言一、Deformable Convolutional NetworksDeformable ConvolutionDeformable RoI PoolingPosition-Sensitive (PS) RoI Poolingoffset偏移学习实验效果思考二、Deformable ConvNets v2Stacking More Deformable Conv LayersModulated Deformable ModulesR-CN

2021-04-27 20:28:02 13627

原创 目标检测之FPN Feature Pyramid Networks for Object Detection

目标检测之FPN前言FPNFaster RCNN中的FPN前言论文:《Feature Pyramid Networks for Object Detection》论文地址:https://arxiv.org/pdf/1612.03144.pdf识别不同大小的物体是计算机视觉中的一个基本挑战,我们常用的解决方案是构造多尺度金字塔。本论文是2017年所出的,没啥多说的,直接进入主题。FPN1)图a所示,整个过程是先对原始图像构造图像金字塔,然后在图像金字塔的每一层提出不同的特征,然后进行相应的预

2021-04-26 16:28:29 626

原创 CNN卷积神经网络之EfficientNet

CNN卷积神经网络之EfficientNet前言设计方法和对比实验网络结构小结前言《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》论文地址:https://arxiv.org/pdf/1905.11946.pdf这是2019年的一篇炼丹的单方,给出了从深度、宽度、分辨率三个维度的设计方案。以往的网络设计通常是依靠提升一个方面来提升性能,而EfficientNet是三者复合的方式提升网络性能,在NAS搜

2021-04-24 19:18:49 1434

原创 Conv1d 2d 3d、空间可分离卷积Separable Conv、分组卷积Group Conv、深度可分离卷积Depthwise Separable Conv、空洞卷积、可变性卷积

CNN中各种卷积Convolution介绍1.Conv1d 2d 3d2.空间可分离卷积Separable convolution扁平卷积Flattened convolutions3.分组卷积Group Conv混合分组卷积Shuffled Grouped Convolution4.深度可分离卷积Depthwise Separable ConvDepthwise ConvolutionPointwise Convolution5.空洞卷积(扩张卷积)Dilated Convolutions6.反卷积(转置

2021-04-23 19:38:48 3299

原创 神经网络权重初始化代码 init.kaiming_uniform_和kaiming_normal_

神经网络权重初始化--容易忽视的细节为什么要初始化初始化方法为什么要初始化权重初始化的目的是防止在深度神经网络的正向(前向)传播过程中层激活函数的输出损失梯度出现爆炸或消失。如果发生任何一种情况,损失梯度太大或太小,就无法有效地向后传播,并且即便可以向后传播,网络也需要花更长时间来达到收敛。初始化方法建议可以看看这个:《Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classificatio

2021-04-23 14:03:57 22430 14

原创 Numpy/Pytorch之数据类型与强制转换 总结

Numpy/Pytorch之数据类型与强制转换 总结numpy的数据创建和类型转换Torch的数据创建和类型转换Numpy和Torch之间相互转换1.利用专门设计的函数,进行转换:2.直接利用数据创建矩阵(不能称为类型转换,是新建数据):禁止转载!!!numpy的数据创建和类型转换① 用一维列表创建import numpy as npnp.array([1,2,3])② 用元组创建np.array((1,2,3))③ 创建多维数组np.array( [ [ 1, 2, 3, 4

2021-04-22 16:48:50 2440 1

原创 CNN卷积神经网络之ResNeXt

CNN卷积神经网络之ResNeXt前言前言《Aggregated Residual Transformations for Deep Neural Networks》论文地址:https://arxiv.org/abs/1611.054312017CVPR上的论文,ResNeXt是ResNet和Inception的结合体,因此你会觉得InceptionV4有些相似,但却更简洁。...

2021-04-20 16:41:45 973

原创 IoU计算代码

IoU计算代码前言torch实现的方式numpy实现的方式前言刚入门的时候,尤其对于算法,很多东西不自己亲自写一遍是很难真正理解透的。最近在准备复现yolo的代码,对于IoU的实现,就遇到一点小问题,在此记录一下。torch实现的方式矩阵运算速度更快,代码更简洁。这里取最大最小值,需要利用广播的机制。def bbox_iou(box1, box2,): """ x1y1x2y2格式 Returns the IoU of two bounding boxes """

2021-04-15 15:25:54 955

原创 batchsize的选择和学习率调整

batchsize的选择和学习率调整增大Batch_Size的好处:数据的处理速度加快,跑完一次 epoch(全数据集)所需的时间减少。在一定范围内,一般来说 Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小。尤其是网络中有BN层,过小的batchsize网络性能会急剧下降。另一方面,大的batch size梯度的计算更加稳定,因为模型训练曲线会更加平滑。在微调的时候,大的batch size可能会取得更好的结果。盲目增大Batch_Size的坏处:跑完一次 epoch(

2021-04-14 21:02:02 12255 2

原创 Visible Deprecation Warning: Creating an ndarray from ragged nested sequences (which is list or tupl

VisibleDeprecationWarning: Creating an ndarray from ragged nested sequences (which is a list-or-tuple of lists-or-tuples-or ndarrays with different lengths or shapes)is deprecated. If you meant to do this, you must specify 'dtype=object' when creating the

2021-04-14 14:46:51 16505 10

原创 pytorch numpy .size .shape

pytorch numpy 的.size .shapetorch.size() torch.shapenp.size np.shapePyTorch中的size与numpy中的shape含义一致,都是指 tensor 的形状。torch.size(j)、np.shape[i]都是指当固定其他维度时,该维度下元素的数量。torch.size() torch.shapeimport torcht=torch.tensor([[1,1],[2,3],[2,2]])print(t.size())pri

2021-04-14 09:21:40 687

原创 pytorch .detach() .detach_() 和 .data 切断反向传播

pytorch .detach().detach_()和 .data 切断反向传播.data.detach().detach_()补充:.clone()当我们再训练网络的时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整;或者只训练部分分支网络,并不让其梯度对主网络的梯度造成影响,这时候我们就需要使用detach()函数来切断一些分支的反向传播。不过在查看前人写的一些代码时,经常会看见.data,下面介绍一下区别:.dataimport torcha = torch.tenso

2021-04-13 19:29:31 784

原创 pytorch保存和加载训练模型

pytorch保存和加载训练模型torch.save()torch.load()del checkpointtorch.save()torch.save()可以保存一个字典,这里除了保存预训练模型的权重之外,还可以保存一些训练信息:torch.load()torch.load()可以加载一个字典:del checkpoint加载到模型之后,删掉原有的checkpoint以节省内存。del checkpoint # dereference seems crucial...

2021-04-09 15:04:04 353 2

原创 python中的[:::]、[::-1]

python中的[::1]、[::-1]python中的列表,实际上是[start,end,step],只要记住这个其它的万变不离其宗,迅速得出答案。(默认情况下,可以不写step=1,记得[0:2)左闭右开,除非是缺省的,表示到头。)下面举例:a=[0,1,2,3,4,5,6,7,8,9]#从左往右数-->b=a[:7:2]#从左边的头+2 到右边7的开区间 ==>[0, 2, 4, 6]b=a[3::3]#从左边闭区间+3 到最右边的头==>[3, 6, 9]#从右往左数

2021-04-09 10:46:07 614

原创 AP AR mAP ROC AUC(目标检测)

目标检测之AP AR mAP (Evaluation metrics)混淆矩阵中 TP、TN、FP、FNPrecision查准率和Recall召回率P-R曲线AP mAPAR总结禁止转载!在做目标检测任务的时候,通常会制定规则来评估性能,就如下图所示,后面会慢慢道来其中的原理。混淆矩阵中 TP、TN、FP、FN在目标检测中,通常以IoU阈值作为正负样本的划分标准。T表示预测对了,F表示预测错了,P和N表示预测值。Precision查准率和Recall召回率P-R曲线P-R曲线是以Pre

2021-04-08 16:34:57 5570 7

原创 pytorch在dataloader卡住

问题描述:程序卡死在了dataloader(),但是原本是可以跑的,中途中断了一次之后,后来就不行了。原因分析:这种情况应该是属于pytorch多线程锁死,大多数情况是numwork数量多于了cpu的核数。解决方案:1.查看CPU个数cat /proc/cpuinfo | grep "physical id" | uniq | wc -l2.查看CPU核数cat /proc/cpuinfo | grep "cpu cores" | uniqnumwork设置为6。...

2021-04-05 14:22:50 1920

原创 aria2c: command not found

问题描述:aria2c: command not found原因分析:缺少aria2c工具。aria2c是快速下载工具. 支持HTTP(S), FTP, SFTP, BitTorrent, and Metalink。解决方案:Ubuntu安装aria2c:sudo apt-get install aria2不同系统可以用的命令:下次如果什么command not found,去这里 禁止以任何形式转载 ...

2021-04-01 18:21:14 4178

原创 目标检测IoU GIoU DIoU CIoU EIoU Loss

IoU GIoU DIoU CIoU LossIoU LossGIoU LossDIoU LossCIoU LossIoU LossGIoU LossDIoU LossCIoU Loss

2021-04-01 14:18:24 1147

notepadinstaller.rar

notepadinstaller.rar

2021-01-30

TPS54160开关电源原理图及PCB

TPS54160开关电源原理图及PCB

2021-01-16

二阶数字锁相环simulink仿真

通信实验仿真

2021-01-16

一阶数字锁相环设计simulink仿真

通信实验仿真

2021-01-16

正交鉴频器multisim仿真

高频实验multisim仿真

2021-01-16

混频器multisim仿真

高频实验,multisim仿真

2021-01-16

中频放大器multisim仿真

multisim14,高频实验仿真

2021-01-16

高频本地振荡器multisim仿真

multisim14,高频本振

2021-01-16

高频小信号放大multisim仿真

multisim14,高频小信号放大

2021-01-16

LCD12864串口通信

LCD12864除了常用的并口模式,而且还可以用串口模式,这样可以节省更多的IO口。

2021-01-16

DS1302可调时钟.rar

DS1302可调时钟.rar

2021-01-16

51单片机串口通讯中断应用

51单片机串口通讯中断应用

2021-01-16

msp430f5529官方示例代码

msp430f5529官方示例代码

2021-01-10

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除