深度学习
文章平均质量分 90
猫猫与橙子
这个作者很懒,什么都没留下…
展开
-
初次使用PPYOLOE-R
记录使用自己的数据,基于PaddleDetection工程,跑通PPYOLOE-R算法;原创 2023-06-09 18:12:14 · 2130 阅读 · 14 评论 -
机器视觉入门:决策树的剪枝理论
决策树的剪枝理论转载 2015-10-27 09:44:05 · 528 阅读 · 0 评论 -
第二章 模型评估与选择——调参与最终模型
1)什么是“参数调节”?答:大多数学习算法都有些参数需要设定,参数配置不同,学得的模型的性能往往有显著差别。因此,在进行模型评估与选择时,除了要对适用学习算法进行选择,还需对算法参数进行设定,这就是通常所说的“参数调节”或简称调参;2)注意点?注意:在给定包含包含m个样本的数据集D,在模型评估与选择过程中由于需要留出一部分数据进行评估测试,所以一部分数据没有参与模型训练;所以在学习算法和参数配置已...原创 2018-06-14 14:52:23 · 776 阅读 · 0 评论 -
核函数的运用
详细的公式什么的,网络上搜索kernel function, kernel methods 有很多,我就不仔细说了,简单地说说背后的intuition。intuition也很简单,比如我们有一个一维的数据分布是如下图的样子,你想把它用一个直线来分开,你发现是不可能的,因为他们是间隔的。所以不论你画在哪,比如绿色竖线,都不可能把两个类分开。但是我们使用一个简单的升维的方法,把原来一维的空间...转载 2016-08-20 09:26:10 · 823 阅读 · 0 评论 -
疲劳测试:perclos
WierwiIIe驾驶模拟器上的实验结果证明,眼睛的闭合时间一定程度地反映疲劳, 如图 所示。在此基础上, 卡内基梅隆研究所经过反复实验和论证,提出了度量疲劳/瞌睡的物理量 PERCLOS (Percentage ofEyeIid CIosure over the PupiI, over Time, 简称PERCLOS) 其定义为单位时间内 (一般取1 分钟或者 30 秒) 眼睛闭合一定...原创 2019-03-05 09:05:50 · 16557 阅读 · 3 评论 -
机器视觉入门:K均值
K均值算法的运用。转载 2015-10-26 21:18:49 · 524 阅读 · 0 评论 -
数学知识
(以下转自一位MIT牛人的空间文章,写得很实际:)作者:Dahua感觉数学似乎总是不够的。这些日子为了解决research中的一些问题,又在图书馆捧起了数学的教科书。从大学到现在,课堂上学的和自学的数学其实不算少了,可是在研究的过程中总是发现需要补充新的数学知识。Learning和Vision都是很多种数学的交汇场。看着不同的理论体系的交汇,对于一个researcher来说,往往是非常ex...转载 2015-12-03 11:17:22 · 400 阅读 · 0 评论 -
独热编码(One-Hot Encoding)
在很多机器学习任务中,特征并不总是连续值,而有可能是分类值。离散特征的编码分为两种情况:1.离散特征的取值之间没有大小的意义,比如color:[red,blue],那么就使用one-hot编码2.离散特征的取值有大小的意义,比如size:[X,XL,XXL],那么就使用数值的映射{X:1,XL:2,XXL:3}例如,考虑一下的三个特征:["male", "female"]["from Europe", "from US", "from Asia"]["uses Firefox"转载 2020-09-29 13:42:24 · 1980 阅读 · 0 评论 -
AdaBN(Adaptive Batch Normalization)使用
最近在查看论文《Towards Flops-constrained Face Recognition》时,发现作者使用了AdaBN的技巧,我很好奇AdaBN是什么操作,为甚么没有看见相应的博文介绍,下面是我自己整理的资料。论文链接:原文中的算法:通俗理解:把model设成训练模式,然后是做前向计算,不做反向更新,相当于只更新global mean和global variance;将所有测试样本跑一遍,得到的最终的BN层的参数用于test测试样本;注意:有人建议做迁移时,要将gl.原创 2020-06-30 16:36:45 · 8536 阅读 · 6 评论 -
python nms(Non-Maximum Supression)
代码收藏:#import the necessary packagesimport numpy as np#Malisiewicz et al.def non_max_supression_fast(boxes, overlapThresh): #if there are no boxes,return an empty list if len(boxes)==0:...原创 2018-08-09 09:05:58 · 768 阅读 · 0 评论 -
卷积层后面跟batch normalization层时为什么不要偏置b
最近在学习pytorch,自己搭建网络结构,搭建的时候遇到一个问题,就是convolutional层后接了batch normalization和scale层后,到底要不要设置卷积层的偏置,而且我最近在转换模型(caffe转pyotch)时,在跟了batchnorm的卷积层还设置了偏置(由于有偏置参数,所以就设置了偏置),那么到底是否需要在跟了batchnorm的卷积层后面跟上参数了?以下内容...转载 2019-07-31 18:04:02 · 7728 阅读 · 4 评论 -
什么是depthwise separable convolutions
Depthwise(DW)卷积与Pointwise(PW)卷积,合起来被称作Depthwise Separable Convolution(参见Google的Xception),该结构和常规卷积操作类似,可用来提取特征,但相比于常规卷积操作,其参数量和运算成本较低。所以在一些轻量级网络中会碰到这种结构如MobileNet。常规卷积操作对于一张5×5像素、三通道彩色输入图片(shape为5×5×3...转载 2019-07-30 17:11:21 · 5034 阅读 · 2 评论 -
对SE_ResNet的理解
最近在使用InsightFace_Pytorch-master pytorch工程,然后有使用到SE_ResNet50,所以想要分析相应的网络结构(包括网络层名和读取对应层相应参数)了解什么叫做SE模块?SE是Squeeze-and-Excitation(SE)的缩写,该模块的提出主要是考虑到模型通道之间的相互依赖性。SE网络的使用结构如下图所示:上左图是将SE模块嵌入到Incep...原创 2019-07-10 11:37:39 · 20500 阅读 · 6 评论 -
迁移学习中的模型微调(fine-tune)问题
Transfer Learning(迁移学习)模型训练过程中,很少有人会在数据量不够充足的时候从头开始训练整个卷积网络。通常情况下,一般会使用一个大的数据集对卷积网络进行预训练(例如使用数据集ImageNet,它包含120万张图片,共1000个类别)然后将训练的模型作为预训练模型初始化卷积网络,或者将提取特征的卷积层参数固定,然后再进行训练。三个主要迁移学习场景如下1)固定特征提取层的...翻译 2019-07-12 13:58:26 · 1858 阅读 · 0 评论 -
自己使用过得模型压缩方法
最近有朋友问我做过的L1剪枝方法怎么样,有没有资源;因为这个是公司的事情,我也不能直接给资源,但是我还是将我使用过得压缩方法总结一下。(还是由于自己忘性大,留给自己回忆):1)L1剪枝方法:查看如下资源,https://github.com/NervanaSystems/distiller2)蒸馏:查看论文:《Mimicking Very Efficient Netwo...原创 2019-03-10 14:46:48 · 970 阅读 · 5 评论 -
第五章 神经网络——神经元模型
1.激活函数Sigmoid函数:将较大范围内变化的输入值挤压到(0,1)输出范围内,因此有时也称为“挤压函数(squashing function)”在神经网络中,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过“激活函数”(activationfunction,通常使用sigmoid函数)处理以产生神经元的输出;...原创 2018-06-14 16:21:44 · 628 阅读 · 0 评论