自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(32)
  • 收藏
  • 关注

原创 ValueError: Caught ValueError in DataLoader worker process 0.

找了一天,网上基本没有这方面的内容 就一个github的相关讨论 还没看明白人家说的啥。一开始怀疑各种原因,以为是dataloader的问题(后来想想在,怎么可能,官方包怎么会有这种问题。。。。。)最后解决办法:从新拷贝了一份数据集。可能是因为之前拷贝数据集的时候中断过,数据出了问题。...

2021-10-24 16:10:06 6694 3

原创 GeForce RTX 3080 with CUDA capability sm_86 is not compatible with the current PyTorch installation

GeForce RTX 3080 with CUDA capability sm_86 is not compatible with the current PyTorch installation错误详细描述:GeForce RTX 3080 with CUDA capability sm_86 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabi

2021-10-22 03:23:43 1530

原创 字符串常量池、字符串相加、final、intern、常量池如何存储

字符串常量池与字符串相加以及final、intern之间的关系1、字符串相加以及fianl创建时:(1)s=“1”+“2”+“3”。这种情况会被编译器优化为一个String a=“123"直接放入字符串常量池中。(2)s=new String(“12”)+new String(“3”)。这种情况常量池中会存下"12"和“3”,这里其实使用的是StringBuilder.append最后再toString,但是toString不会放入字符串变量池,所以常量池中没有"123”。创建后:(3)s1=“

2021-08-30 04:01:50 559

原创 意向锁的作用

①在mysql中有表锁,LOCK TABLE my_tabl_name READ; 用读锁锁表,会阻塞其他事务修改表数据。LOCK TABLE my_table_name WRITe; 用写锁锁表,会阻塞其他事务读和写。②Innodb引擎又支持行锁,行锁分为共享锁,一个事务对一行的共享只读锁。排它锁,一个事务对一行的排他读写锁。③这两中类型的锁共存的问题考虑这个例子:事务A锁住了表中的一行,让这一行只能读,不能写。之后,事务B申请整个表的写锁。如果事务B申请成功,那么

2021-07-07 20:54:31 593

原创 双重校验锁实现对象单例(线程安全)原理

记个笔记-解释一下双重校验锁实现单例模式的原理代码如下 主要解释一下为什么需要里面的二次判断,假设现在有两个线程A,B。线程A和B同时进入到第一层判断里面,此时A拿到锁进到第二层判断创建了对象,然后释放锁。此时B就可以拿到锁可以进入同步代码块,如果没有第二个判断,就会创建多个对象。 总结:第一个判断是为了减少锁判断,提升效率。第二个是为了保证只创建一个实例对象。另外,需要注意uniqueInstance采用volatile关键字修饰也是很有必要。uniq...

2021-06-10 13:57:02 746

原创 Pycocotools安装

Windows环境下安装pycocotools在做视觉任务(如目标检测、目标跟踪等)的时候,有时会用到Pycocotools,一般情况下,我们只需要在python环境中或者Anaconda下进行install指令进行包安装即可。但这个包安不上,无论是pip命令还是conda命令都会报各种错。接下来说下解决办法。首先在网上查阅时候有一种说法,直接在python/conda命令环境下输入:install git+https://github.com/philferriere/cocoapi.git#su

2020-12-11 21:30:11 12717 8

原创 关于深度学习中的梯度下降与学习率调整策略

推荐三篇文章,写的相当清楚,在这记录一下,方便以后查阅1、关于梯度下降算法:https://lumingdong.cn/summary-of-gradient-descent-algorithm.html2、关于梯度下降中学习率设定策略:https://lumingdong.cn/setting-strategy-of-gradient-descent-learning-rate.html#快照集成和随机加权平均(Snapshot_Ensembling_And_Stochastic_Weig

2020-06-06 15:50:45 349

转载 BatchNormal原理详解(相关参数解释)

简单来说BN原理就是,在训练深层神经网络的过程中, 由于输入层的参数在不停的变化, 因此, 导致了当前层的分布在不停的变化, 这就导致了在训练的过程中, 要求 learning rate 要设置的非常小(就像是游戏中的通过表演去传递一个消息,每一层可能都表演的不一样,到最后就完全变形了,所以需要一点一点的学,学习率不能设置太大), 另外, 对参数的初始化的要求也很高. 作者把这种现象称为internal convariate shift. Batch Normalization 的提出就是为了解决这个问题.

2020-06-04 15:26:47 2477

原创 Ai Studio介绍、使用以及pytoch环境的配置

关于AI Studio的使用(torch环境配置)1、简介 百度推出的AI Studio是一个一站式开发平台:囊括了 AI 教程、代码环境、算法算力、数据集,并提供免费的在线云计算,是一个一体化编程环境。这里我们主要使用百度AI studio提供的免费算力:V100显卡,显存16G的配置,每天 12 个小时的免费算力支持(试了一下,一般需要到晚上十二点以后才能申请到,白天基本申请不到GPU的使用权限)。 平台主张使用paddle paddle,但是可以自己进行pyto...

2020-05-09 22:04:32 7379

原创 卷积神经网络(CNN)的通道计算过程(卷积网络的参数量计算方法、计算量计算方法)

以前一直对卷积的通道运算有一个误解,今天搞懂了,记录一下。其实很简单,产生一个输出通道需要与输入通道数相当的卷积模板数(这个为一组产生一个输出通道),如下图所示对应的卷积模板处理对应的输入通道,以上面的例子来说,第一个卷积模板处理第一个输入通道产生一个h*w(输入特征的大小)的feature,如此会产生三个相同大小的feature,再把不同通道相同位置的元素相加产生一个输出通道。...

2020-04-28 17:27:50 9724

原创 Pytorch中的网络参数(权重)初始化函数总结

Pytorch之网络初始化

2020-04-26 17:13:23 2613

转载 神经网络参数初始化(MSRA、Xavier)

再推荐一篇感觉原理讲的很好的文章:https://blog.csdn.net/u014696921/article/details/53819512

2020-04-26 16:45:37 929

原创 torch.cat()\torch.stack()\concat操作\FPN类模型通道特征合并

特征合并相关(concat)1、合并方法(1)FPN先用1*1卷积合并通道数,然后上采样,对应元素直接相加。如此合并之后为减少混叠效应,再用3*3卷积进行处理得到每一层级最后的特征图;除此之外,为不同层次的输出通道设置固定维数(因为所有层次都像传统的特征化图像金字塔一样使用共享的分类器/回归器)与此同时由于FPN不同级别特征图尺寸不同所以对应的锚框大小也不同(但是长宽比例都是相同的...

2020-04-26 11:00:49 16398 1

原创 深度学习 warmup 策略\Warmup预热学习率

推荐博客https://blog.csdn.net/sinat_36618660/article/details/99650804https://blog.csdn.net/comway_Li/article/details/105016725https://blog.csdn.net/longe20111104/article/details/88397152

2020-04-26 00:33:09 1364

原创 RFB_Net(ECCV 2018)

1、出发点 在此之前很多目标检测网络在性能上获得大幅度的提升都得益于backbone的性能提升(也就是网络越来越深的原因),但作者认为不能一味的靠增加网络深度带来性能提升,合理的替代方案是通过引入某些人工设计的机制来增强轻量级网络的特征表示,而不是顽固地加深模型。2、理论基础 在过去的几十年中,功能性磁共振成像(fMRI)以毫米为单位的分辨率无创地测量了人类的...

2020-04-26 00:00:34 727

原创 CUDA、cuDNN以及pytorch_GPU的安装与配置

win10+cuda+cuDNN+pytorch1.4.0首先先说一下,由于cuda下载需要与本地的显卡驱动程序相匹配,所以先检查一下自己的驱动程序属什么版本,版本太低的话可以先更新一下(pytorch1.4目前只支持cuda9.0以上版本,所以显卡驱动程序版本太低也不行) 打开显卡驱动程序,系统...

2020-04-19 23:26:24 631

原创 GhostNet论文阅读

GhostNet:More Features from Cheap Operations.1、主要思想深度网络处理过的特征有一部分冗余,这类特征可以通过更廉价的方式获取,不一定非要传统代价较为高昂的运算方式。也就是说,它主要针对网络Feature Map通道间存在的相似性,引入通道间的线性变换来替代原始的传统CNN运算,在减少网络参数和计算量的同时,保持Feature Map原本的通道数和...

2020-04-17 10:17:46 1405

原创 神经网络训练加速、增加稀疏性操作(Dropout、GN、BN、LRN)

增加稀疏性(降低过拟合风险)----Dropout、LRNDropout Dropout是怎么做到防止过拟合的呢?首先,想象我们现在只训练一个特定的网络,当迭代次数增多的时候,可能出现网络对训练集拟合的很好,但是对验证集的拟合程度很差的情况。所以,我们有了这样的想法:可不可以让每迭代随机的去更新网络参数,引入这样的随机性就可以增加网络generalize 的能力。所以就有了d...

2020-04-12 11:47:24 3682 1

原创 EfificientDet目标检测网络

EfificientDet:scalable and Efficient Object Detection参考文章:https://blog.csdn.net/dwilimeth/article/details/103206530https://blog.csdn.net/zhw864680355/article/details/103531307https://www.cnblo...

2020-04-11 20:50:42 390

原创 深度学习--------经典卷积网络总结(3) EfficientNet

卷积网络总结(3) EfficientNet该网络使用到了神经网络结构搜索(Neural Architecture Search, NAS),了解不太多。但是这个网络太强了。先码吧,推荐几篇比较好的文章:EfficientNet论文讲解:https://zhuanlan.zhihu.com/p/67508423https://www.cnblogs.com/yumoye/p/1...

2020-04-11 14:59:45 372

原创 深度学习------经典卷积网络总结(2)之DenseNet

卷积网络总结(2)------DenseNet6、2017年DenseNet(1)思路在提出ResNet时做出了有这样的假设:若某一较深的网络多出另一较浅网络的若干层有能力学习到恒等映射,那么这一较深网络训练得到的模型性能一定不会弱于该浅层网络.通俗的说就是如果对某一网络中增添一些可以学到恒等映射的层组成新的网路,那么最差的结果也是新网络中的这些层在训练后成为恒等映射而不会影响原网络的...

2020-04-11 01:18:50 826

原创 深度学习----经典卷积网络总结(1)

卷积网络总结再进行详细介绍之前先上个图:(下面图片参照:http://blog.csdn.net/cyh_24/article/details/51440344)这张图很好的说明了卷积网络的大致发展脉络,接下来我们对这些网络进行介绍,除此之外我们还将对DenseNet和EfficientNet进行介绍(其中一些缓解过拟合的操作,如Dropout、LRN等我们会在写一篇博客中进行总结...

2020-04-11 00:04:31 421

原创 神经网络-激活函数小结

激活函数总结一、激活函数的作用 我们知道神经网络是为了模拟人类大脑对要执行的任务进行学习,而人类的神经元产生兴奋是由一定条件的(阈值),激活函数就是为了模拟这个机制,当输入的激励达到一定强度,神经元就会被激活,产生输出信号。 与此同时,激活函数将非线性特征引入到神经网络当中,如果没有激活函数,输出信号就是一些简单的线性关系的堆叠,往往无法对复杂的任务进行学习。所...

2020-04-09 00:23:34 572

原创 2019 ICCV 目标检测 论文简述整理

2019 ICCV (43篇) 题目 发表单位 针对问题 创新点 性能 ThunderNet: Towards Real-time Generic Object Detection (实现实时通用对象检测) 旷视 ...

2020-04-07 00:30:18 2149

原创 2019 CVPR 目标检测 论文简述整理

2019 CVPR (40篇) 题目 发表单位 针对问题 创新点 性能 Activity Driven Weakly Supervised Object Detection 活动驱动的弱监督目标检测 南加利福尼亚大学 ...

2020-04-07 00:27:47 1059

原创 SVM的来龙去脉(4)

SVM中的对偶问题以及KKT条件

2020-04-07 00:17:58 225

原创 SVM来龙去脉(3)

SVM中的核函数和SMO

2020-04-06 23:59:39 187

原创 SVM来龙去脉(2)

SVM的拟合过程1、怎么做二分类的思路,简单说就是确定一条直线,也就是确定参数w和b。参数w和b知道后,再给一个样本x,带入到上面的公式,如果y≥+1,就判断为正类(+1),如果y≤-1,就判断为负类(-1)。这条直线或超平面怎么找呢?假设标签为{+1,-1}。要想更好的分开这两类数据,在数据上划出两条线,使这两类数据之间的间隔最大,对应图中的虚线。在两条虚线的中间画一条直线,对应图中橙色...

2020-04-06 23:42:54 362

原创 SVM的来龙去脉(1)

SVM的来历 SVM作为机器学习中的一大霸主(虽然今时不同往日),对机器学习领域产生了很大的影响。SVM的相关原理看的时间比较久,所以想记录一下,想说清楚这件事需要比较多的文字,所以文章比较长(分为几部分),我们先谈谈SVM的来历 1、Logistic回归我们就先从logistic回归谈起,我们都知道线性回归是试图学得一个线性模型,以尽可能准确的预测实值输出标记。假如我们将线...

2020-04-06 22:22:15 1242

原创 计算机视觉常识(研究方向简介、需要的知识储备)

计算机视觉的一些常识1、计算机视觉的主要研究领域计算机视觉领域包括的主要领域有图像分割(图像信息预处理)、三维重建和模式识别(包括对静态、动态物体的识别与理解)。(1)图像分割:图像分割是图像识别和计算机视觉至关重要的预处理。没有正确的分割就不可能有正确的识别。但是,进行分割仅有的依据是图像中像素的亮度及颜色,由计算机自动处理分割时,将会遇到各种困难。例如,光照不均匀、噪声...

2020-04-06 21:33:56 5453

原创 用python搭建神经网络 实现书籍ISBN号识别

import numpyimport scipy.specialimport matplotlib.pyplotimport cv2import osclass neuralNetwork: def __init__(self,Inodes,Hnodes,Onodes,Lrate): #初始化函数 self.inodes=Inodes...

2020-04-06 21:12:55 1992 4

原创 计算机视觉(visual object tracking)----相关信息的一些总结

作为一名刚刚接触CV的小白的一些关于CV领域相关信息的总结:1、CV领域的顶级会议:(顶级)ICCV:International Conference on Computer Vision,国际计算机视觉大会CVPR:International Conference on Computer Vision and Pattern Recognition,国际计算机视觉与模式识别大会...

2019-09-15 13:03:22 697

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除