自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(23)
  • 收藏
  • 关注

原创 conda update报错CondaHTTPError:

这里写自定义目录标题conda update --all 报错处理CondaHTTPError:1.解决方法1:2.解决方法2注意:此时若出现InvalidVersionSpecError:若出现新的问题:CondaHTTPError:conda update --all 报错处理CondaHTTPError:编辑不易,望点赞、关注后观看,谢谢!在我们用conda升级包的时候,在cmd里输入conda update --all有时候会出现报错,类似于[CondaHTTPError: HTTP 0

2021-11-10 18:05:19 4082 2

原创 python笔记4:数据归一化(0,1),归至(-1,1)

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档python笔记4:数据归一化(0,1),归至(-1,1)一、pytorch里tensor数据归一化1.tensor数组全局归一化2.tensor数组指定维度归一化二、pytorch里tensor数据归至(-1,1)一、pytorch里tensor数据归一化1.tensor数组全局归一化数学公式将数组中的无论正负数值归一化到[0, 1]之间​ 具体操作如下:定义函数,输入参数为

2020-12-13 20:59:44 36335 6

原创 python笔记3:numpy.array、list、torch.tensor互换

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档python笔记3:numpy.array、list、torch.tensor互换一、list与numpy.array数组互换1.list 向numpy.array数组转换numpy.array(list),参数为列表类型2.numpy.array向list 数组转换ndarray.tolist(),变量名在前,数据类型是ndarray二、list与torch.tensor数组互换1.list向torch.tensor数组转换torch.t

2020-12-13 15:45:17 457

原创 python笔记2:指定概率生成数据

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档python笔记2:指定概率生成数据一、random指定范围随机生成数1. *random.choice()在指定数据集内生成随机数*2. *random.sample(x,n)在指定数据集内生成随机数组*二、random指定概率随机生成数一、random指定范围随机生成数1. random.choice()在指定数据集内生成随机数先建立一个数据集x,然后用方法random.choice(x)从数据集里随机选取一个数,具

2020-12-13 12:59:05 8962

原创 python笔记1:random、numpy生成随机数

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档python笔记1:random、numpy生成随机数一、numpy、random生成随机整数1. *numpy.random模块生成随机整数*2. *random*模块生成随机整数二、numpy生成随机整数组1. *np.random.randint(low[,high,size])*2. *np.int32(np.random.rand(n)*10)*三、numpy生成随机浮点数组1. *np.random.rand

2020-12-12 23:08:49 873

原创 EffecientDet论文学习2

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档EffecientDet论文学习2前言前言论文地址:EfficientDet: Scalable and Efficient Object Detection在如今计算机视觉研究历程中,模型的效率变得愈发的重要。那么如何提高模型的效率成为了现在研究的热门。例如有一些网络是用One-stage和无锚检测器,亦或者是压缩现有的模型。那这些模型虽然在一定程度上提高了效率,却同时会失去掉一定的准确性。EfficientDet 研究就是在有限

2020-11-09 13:31:11 310 1

原创 EffecientDet论文学习1

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档EffecientDet一、一、

2020-11-09 12:05:45 191 1

原创 Dropout、Dropconnect、Dropblock

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档LN.BN.GN.IN一、归一化一、归一化

2020-11-08 20:15:20 1394

原创 LN.BN.GN.IN

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档目标检测之SSD一、前言一、前言

2020-11-04 23:52:17 273

原创 IOU .GIOU.DIOU.CIOU

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档IOU .GIOU.DIOU.CIOU一、IOU(Intersection over Union)二、GIOU(Generalized Intersection over Union)三、DIoU(Distance-IoU)四、CIoU(Complete-IoU)一、IOU(Intersection over Union)IoU就是交并比,也可以直观的认为是边框与真实框的重合度。是目标检测中最常用的指标,在anchor-based方法

2020-11-04 21:35:55 263

原创 NMS、soft NMS、softer NMS与IOU-Guided NMS

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档NMS、soft NMS、softer NMS与IOU-Guided NMS一、NMS二、soft NMS三、softer NMS**四、IOU-Guided NMS**一、NMS非极大值抑制算法(Non-maximum suppression, NMS)的本质是搜索局部极大值,抑制非极大值元素。在计算机视觉技术中主要目的是为了消除多余的框,找到最佳的物体检测的位置,几乎所有的目标检测方法都用到了这种后处理算法。如上图中,一共

2020-11-04 21:19:03 865 4

原创 ROI Pool、ROI Align、PSROI Pool、PrROI Pool

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档ROI Pool、ROI Align、PSROI Pool、PrROI Pool基本概念一、ROI Pool二、ROI Align三、PSROI Pool四、PrROI Pooling(Precise RoI Pooling )基本概念ROIRoI(Region of Interest)是通过不同区域选择方法,从原始图像(original image)得到的兴趣区域,为进一步生成bounding box做准备。bounding b

2020-11-04 20:40:50 1299

原创 目标检测之SSD

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档目标检测之SSD一、前言二、SSD(Single Shot MultiBox Detector)SSD相对于YOLO的优势:三、SSD训练过程膨胀卷积:四、SSD预测过程一、前言目标检测近年来已经取得了很重要的进展,主流的算法主要分为两个类型(参考RefineDet):(1)two-stage方法如R-CNN系算法,其主要思路是先通过启发式方法(selective search)或者CNN网络(RPN)产生一系列稀疏的候选框,然后

2020-11-04 18:20:16 334

原创 目标检测之Faster RCNN-2

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档目标检测之Faster RCNN-2一、RPN图像分类(Image Classification)一、RPN计算机视觉中图像处理的任务大致可以分为几类:图像分类,目标检测,语义分割,实例分割,全景分割等。conv layer的特征图,再分别与进行两次卷积运算,得到batchsize18(M/16)(N/16)和batchsize36(M/16)(N/16)的两个矩阵,前面为RPN得到的分类结果(只有前景和目标两类+忽略类),后面的

2020-11-04 16:04:35 347

原创 目标检测之Faster RCNN-1

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档pytorch基础学习6一、语法 x = x.view(x.size(0), -1)文档:view(*args) → Tensor一、语法 x = x.view(x.size(0), -1)文档:view(*args) → Tensor返回...

2020-11-04 11:42:53 213

原创 pytorch基础学习6

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档pytorch基础学习6一、语法 x = x.view(x.size(0), -1)文档:view(*args) → Tensor二、语法 torch.max()torch.max(input, dim, keepdim=False, out=None) -> (Tensor, LongTensor)一、语法 x = x.view(x.size(0), -1)文档:view(*args) → Tensor返回一个有相同数据

2020-11-02 12:04:22 1345

原创 卷积神经网络基础学习2

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档卷积神经网络基础学习2Rand_Augment模块语法numpy.linspace语法im.transform转换方法:PIL中的ImageEnhance图像增强模块魔术方法之def __call__(self, *args)Rand_Augment模块class Rand_Augment():def init(self, Numbers=None, max_Magnitude=None):图像增强类,输入参数有两个:图像增强的种

2020-10-31 12:33:40 304 1

原创 卷积神经网络基础学习1

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档卷积神经网络基础学习1一、Resnet模块二、 Bottleneck一、Resnet模块1.残差网络出现的原因传统的卷积层层叠网络会遇到一个问题,当层数加深时,网络的表现越来越差,很大程度上的原因是因为当层数加深时,梯度消散得越来越严重,以至于反向传播很难训练到浅层的网络。为了解决这个问题,想出了一个“残差网络”,使得梯度更容易地流动到浅层的网络当中去,而且这种“skip connection”能带来更多的好处。2.构建残差网络

2020-10-30 21:31:36 328

原创 pytorch基础学习5

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档pytorch之常用语法一、时序容器二、池化max-pooling(平均池化)max-pooling(最大池化)一、时序容器class torch.nn.Sequential(* args)一个时序容器。Modules 会以他们传入的顺序被添加到容器中。当然,也可以传入一个OrderedDict。容器通常用来创建神经网络一个新的网络层,该网络层里卷积,归一化,激活函数等等都可以自行定义多少个,以什么样的顺序添加进去,就会以什么样的

2020-10-30 15:46:31 1013

原创 pytorch基础学习4

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档pytorch之常用激活函数一、sigmoid函数二、ReLU函数三、ReLU6函数四、 ELU函数五、SELU函数一、sigmoid函数1.sigemoid简介sigmoid容易饱和,当输入非常大或者非常小的时候,函数曲线非常平坦,梯度就接近于0。而反向传播中,我们需要使用sigmoid的导数来更新权重,如果导数都基本为0,会导致权重基本没什么更新,这种现象也可以叫做梯度弥散。将所有数据映射成了(0,1)之间的数,很好的表达神经

2020-10-30 14:56:49 164

原创 pytorch基础学习3

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档pytorch之批归一化一、注释学习二、部分参数一、注释学习对4D输入应用批处理归一化(带有额外通道维数的小批2D输入),如论文“`Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift”中所述。平均值和标准偏差是在小批量中按维度计算的,其中:math: ' \gamma '和:math: ' \bet

2020-10-29 21:54:38 147

原创 pytorch基础学习1

pytorch之二维卷积文章目录pytorch之二维卷积一、 卷积简述二、部分参数一、 卷积简述 通常对于由多个维度组成的输入信号可以用二维卷积。较为简单的模式是,输入大小为(N,C,H,W),卷积过后的输出为(N,C,H,W)。N是每个批次的样本数目,C是输入样本的通道数目,H是输入样本的高度,W是输入样本的宽。二、部分参数stride:步长,控制卷积核每经一次卷积计算后移动的长度;padding(int or tuple, optional) :填补,输入的每一

2020-10-29 21:19:25 256

原创 pytorch基础学习2

pytorch之交叉熵损失函数一、交叉熵Pytorch中计算的交叉熵并不是采用而是它是交叉熵的另外一种方式。Pytorch中CrossEntropyLoss()函数的主要是将softmax-log-NLLLoss合并到一块得到的结果。实际等同于:CrossEntropyLoss()=log_softmax() + NLLLoss()交叉熵损失函数是常常用来来解决C分类问题的,需要给函数提供输入是一个一维的数据,输出的是给每个类别一个权重(或者说是概率)。对于不平衡的数据集非常有用。“输

2020-10-29 16:50:22 143

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除