自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 资源 (1)
  • 收藏
  • 关注

转载 (大佬)睿智的目标检测16——Keras搭建SSD目标检测平台

原文链接:https://blog.csdn.net/weixin_44791964/article/details/104107271?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522159887794019725254051093%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=15988779401972525

2020-08-31 20:47:36 434

原创 排序算法比较表

1.关于稳定性:不稳定:快选堆希(快速排序、选择排序、堆排序、希尔排序)稳 定:插冒归计基(简单插入排序、冒泡排序、归并排序、计数排序、基数排序)不想记口诀就自己理解吧,也不难。1、直接插入排序,因为该排序算法是先让左边有序,然后从右边依次选择数据放到左边,并使左边有序,那么最好的情况就是原序列本身就是升序,每次只需从右边往左边添加数据,不需要对左边已经排好序的数据进行排序,那么一共只需添加n次;最坏的情况是序列本身是降序的,那么每次从右边往左边添加数据的时候都要与左边的数据进行对比移动,第

2020-08-31 17:16:19 773

原创 Adobe Acrobat Pro DC打开PDF图标异常

在地址栏输入C:\ProgramData\Microsoft\Windows\Start Menu\Programs直接复制了打开就可以了找到对应的图标,删除(下图中图标已经被我删了,所以没有Adobe Acrobat Pro的图标了)然后重新打开PDF文件,图标显示恢复正常...

2020-08-31 09:29:44 4045 2

原创 网络模型压缩方法

一、网络剪枝:将网络中小于某个设定的阈值(较小)的权重置0,就像二值网络一般;然后将被设置为0的权重屏蔽更新,继续进行训练;以此循环,每隔训练几轮过后,继续进行修剪。二、增加正则化权重:例如增加L1正则化程度,则会出现更多值为0的权重,L2正则化也一样,增大L2正则化程度,则更多的值很小的权重,则会有更多小于阈值的权重被剪枝。三、简化网络结构:使用轻量级网络结构,如使用了深度可分离卷积的mobilenet网络等,或者尝试使用浅层网络结构,使用bottleneck先缩小通道再扩增通道。四、存储网络

2020-08-30 22:20:07 1177

转载 BN层的作用

原文链接:https://zhuanlan.zhihu.com/p/75603087BN层的作用主要有三个:加快网络的训练和收敛的速度控制梯度爆炸防止梯度消失防止过拟合分析:(1)加快收敛速度:在深度神经网络中中,如果每层的数据分布都不一样的话,将会导致网络非常难收敛和训练,而如果把 每层的数据都在转换在均值为零,方差为1 的状态下,这样每层数据的分布都是一样的训练会比较容易收敛。(2)防止梯度爆炸和梯度消失:以sigmoid函数为例,sigmoid函数使得输出在[0,1]之间,实际上当x道了一定的大小,

2020-08-29 19:45:43 1785

转载 牛客OJ在线编程常见输入输出练习(python版)

原文链接:https://blog.csdn.net/qq_41023125/article/details/105748780 先放上地址:https://ac

2020-08-28 10:23:42 2547

转载 分类算法常用评价指标

原文链接:https://www.cnblogs.com/guoyaohua/p/classification-metrics.html 评价指标是针对将相同的数据,输入不同的算法模型,或者输入不同参数的同一种算法模型,而给出这个算法或者参数好坏的定量指标。在模型评估过程中,往往需要使用多种不同的指标进行评估,在诸多的评价指标中,大部分指标只能片面的反应模型的一部分性能,如果不能合理的运用评估指标,不仅不能发现模型本身的问题,而且会得出错误的结论。最近恰好在做文本分类的工作,所以把机器学习分类

2020-08-27 21:56:30 365

转载 奇异值分解(SVD)

原文链接:https://www.jianshu.com/p/310b55c791de嘻嘻~今天也假装努力学习了鸭!总结一下前阵子学的线性代数的一小部分内容首先,奇异值分解(Singular Value Decomposition)是线性代数中一种重要的矩阵分解。区分和理解几个概念:1.奇异值对于一个实矩阵A(m×n阶),如果可以分解为A=UΣV’,其中U和Σ为分别为m×n与n×m阶正交阵,V为n×n阶对角阵,且Σ=diag(a1,a2,...,ar,0,..., 0)。且有a1=a2=a3=...=ar

2020-08-27 16:57:18 346

转载 (简洁)深度学习中的五种归一化(BN、LN、IN、GN和SN)

原文链接:https://blog.csdn.net/u013289254/article/details/99690730 一. 本文的内容包括:    1. Batch Normalization,其论文:https://arxiv.org/pdf/1502.03167.pdf  &nbs

2020-08-26 09:09:37 867

原创 非极大值抑制(Non-Maximum Suppression,NMS)

非极大值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素,可以理解为局部最大搜索。在目标检测中是提取分数最高的窗口的。例如在行人检测中,滑动窗口经提取特征,经分类器分类识别后,每个窗口都会得到一个分数。但是滑动窗口会导致很多窗口与其他窗口存在包含或者大部分交叉的情况。这时就需要用到NMS来选取那些邻域里分数最高(是行人的概率最大),并且抑制那些分数低的窗口。NMS 原理对于Bounding Box的列表B及其对应的置信度S,采用下面的计算方式.选择具有最大

2020-08-25 17:19:58 1249

原创 难例挖掘思想

概念:对于分类来说:正样本:我们想要正确分类出的类别所对应的样本,例如,我们需要对一张图片分类,确定是否属于猫,那么在训练的时候,猫的图片就是正样本。负样本:根据上面的例子,不是猫的其他所有的图片都是负样本难分正样本(hard positives):错分成负样本的正样本,也可以是训练过程中损失最高的正样本难分负样本(hard negatives):错分成正样本的负样本,也可以是训练过程中损失最高的负样本易分正样本(easy positive):容易正确分类的正样本,该类的概率最高。也可以是训练过程

2020-08-25 16:41:23 2326

转载 SE Block(Sequeze and Excitation)

原文链接:https://blog.csdn.net/bl128ve900/article/details/93778729    看senet block的代码,明白如何实现def Squeeze_excitation_layer(self, input_x, out_dim, ratio,

2020-08-24 21:34:24 1079

转载 深度学习之特征融合(高低层特征融合)

原文链接:https://blog.csdn.net/xys430381_1/article/details/88370733?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-4.edu_weight&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-4.edu

2020-08-24 16:25:53 49226 3

转载 PCA的数学原理 详细

原文链接:http://blog.codinglabs.org/articles/pca-tutorial.html PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的目的是介绍PCA的基本数学原理,帮助读者了解PCA的工作机制是什么。

2020-08-23 21:01:06 154

原创 word2016,安装Mathtype7.4之后粘贴显示:运行时错误‘53’,文件未找到:MathPage.WLL

如下所示,出现该问题因为我的电脑是64位。后续找的对应文件都是64位文件。首先,在everything中搜索下MathPage.wll和MathType Commands 6 For Word2016.dotm,找到对应文件,如下所示其次,关闭word,若不存在该路径文件夹,则依次新建文件夹。C:\Program Files (x86)\Microsoft Office\Office\root\Office16\STARTUP将MathType Commands 6 For Word2016.d

2020-08-17 10:00:54 6022 2

转载 (太长太全面了)CNN超详细介绍

原文链接:https://blog.csdn.net/jiaoyangwm/article/details/80011656 文章目录1、卷积神经网络的概念2、

2020-08-10 16:00:58 26811 1

转载 CNN经典模型 要点

原文链接:https://blog.csdn.net/jiaoyangwm/article/details/82555461 文章目录一、对比二、AlexNet三

2020-08-10 15:19:58 756

转载 python 面试题

原文链接:https://blog.csdn.net/jiaoyangwm/article/details/80645722 文章目录24、六个标准数据类型25、

2020-08-08 23:08:55 353

转载 xgboost(通俗理解)

原文链接:https://www.jianshu.com/p/105faa5fb5c7xgboost是时下热门的机器学习算法,在面试和竞赛中出现的频率非常高,但网上却没有一篇能够完全讲清楚的文章,因此,本文旨在用尽量少的公式,将xgboost讲清楚,明白,透彻。1 背景知识xgboost是Boost(提升)算法家族中的一员,Boost根本思想在于通过多个简单的弱分类器,构建出准确率很高的强分类器。简单地来说,Boost(提升)就是指每一步我都产生一个弱预测模型,然后加权累加到总模型中,可以用于回归和分

2020-08-08 16:08:58 6460

转载 LDA(分类、降维)、PCA(降维)和KPCA(升维+PCA)

原文链接:https://www.jianshu.com/p/fb25e7c8d36e线性判别分析(LDA)LDA思想总结​ 线性判别分析(Linear Discriminant Analysis,LDA)是一种经典的降维方法。和主成分分析PCA不考虑样本类别输出的无监督降维技术不同,LDA是一种监督学习的降维技术,数据集的每个样本有类别输出。**LDA分类思想**简单总结如下:多维空间中,数据处理分类问题较为复杂,LDA算法将多维空间中的数据投影到一条直线上,将d维数据转化成1维数据进行处

2020-08-07 16:31:37 4409

原创 代价函数、损失函数、目标函数区别

一:损失函数,代价函数,目标函数定义首先给出结论:损失函数(Loss Function )是定义在单个样本上的,算的是一个样本的误差。代价函数(Cost Function )是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。目标函数(Object Function)定义为:最终需要优化的函数。等于经验风险+结构风险(也就是Cost Function + 正则化项)。关于目标函数和代价函数的区别还有一种通俗的区别:目标函数是最大化或者最小化,而代价函数是最小化...

2020-08-07 10:25:47 312

转载 生成式模型和判别式模型(通俗易懂)

原文链接:https://blog.csdn.net/qq_14997473/article/details/85219353 决策函数Y=f(X)与条件概率分布P(Y|X)决策函数Y=f(x):输入一个x,它就输出一个y值,这个y与一个阈值比较,根据比较结果判定x属于哪个类别。条件概率分布P(y|x):输入一个x,它通过比较它属于

2020-08-06 23:19:16 8590

原创 SVM核函数选择

SVM支持向量机,一般用于二分类模型,支持线性可分和非线性划分。SVM中用到的核函数有线性核’linear’、多项式核函数pkf以及高斯核函数rbf。当训练数据线性可分时,一般用线性核函数,直接实现可分;当训练数据不可分时,需要使用核技巧,将训练数据映射到另一个高维空间,使再高维空间中,数据可线性划分,但需要注意的是,若样本n和特征m很大时,且特征m>>n时,需要用线性核函数,因为此时考虑高斯核函数的映射后空间维数更高,更复杂,也容易过拟合,此时使用高斯核函数的弊大于利,选择使用线性核会更

2020-08-06 17:19:05 2643

转载 SVM简洁

原文链接:https://blog.csdn.net/qq_31347869/article/details/88071930 文章目录机器学习的一般框架SVM

2020-08-06 16:39:53 195

转载 (很棒)一篇搞定机器学习面试

原文链接:https://www.jianshu.com/p/405f233ed04b 序言本文尽可能的不涉及到繁杂的数学公式,把面试中常问的模型核心点,用比较通俗易懂但又不是专业性的语言进行描述。希望可以帮助大家在找工作时提纲挈领的复习最核心的内容,或是在准备的过程中抓住每个模型的重点。实战环境说明:Python 2.7 Sk

2020-08-05 23:25:57 393

转载 GBDT(一图搞定,简单易懂)

原文链接:https://www.jianshu.com/p/405f233ed04bGBDT (Gradient Boosting Decision Tree) 梯度提升迭代决策树。GBDT 也是 Boosting 算法的一种,但是和 AdaBoost 算法不同(AdaBoost 算法上一篇文章已经介绍);区别如下:AdaBoost 算法是利用前一轮的弱学习器的误差来更新样本权重值,然后一轮一轮的迭代;GBDT 也是迭代,但是 GBDT 要求弱学习器必须是 CART 模型,

2020-08-05 22:48:34 2033

转载 随机森林(类似Bagging,基于决策树)

原文链接:https://blog.csdn.net/qq_41020194/article/details/79942316 写在前面的话上一篇博文讲过了决策树啦,正好给这一篇的随机森林做铺垫(讲真,我是想先讲随机森林的,无奈随机森林的基础是决策树,因此只能先决策树知识来一波)。至于我为啥这么稀罕随机森林呢,是因为从进科研室的时候起

2020-08-05 15:56:10 655

转载 决策树算法原理

原文链接:https://blog.csdn.net/qq_41020194/article/details/79837093   写在前面的话  进入科科研室之后在组长的带领下也学了快有一年的R语言了,很快就要去找实习进行面试了。而面试难免会被问及很多的经典算法原理,从学习到现在,还从来没有将某一个算法完完整整的

2020-08-05 15:52:28 300

转载 (!简洁明了)Bagging 和Boosting的区别

原文链接:https://www.cnblogs.com/earendil/p/8872001.html Baggging 和Boosting都是模型融合的方法,可以将弱分类器融合之后形成一个强分类器,而且融合之后的效果会比最好的弱分类器更好。 Bagging:先介绍Bagging方法:Bagging即套袋法,其算法过程如下:从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一

2020-08-05 14:57:29 162

转载 KNN (K近邻)

原文链接:https://blog.csdn.net/weixin_44508906/article/details/90116509 K近邻k近邻法(k-N

2020-08-05 11:17:06 368

转载 (python)笔试输入:sys.stdin.readline和input

原文链接:https://www.jianshu.com/p/6f14ca3290ee①:输入一行数据并输出两种方法# 输入一行数据并输出import sys# 方法一:str1 = input()print(‘input 输入:’,str1,‘len=’,len(str1))print(‘循环遍历输入得到输入的每个字符的ascii码如下:’)for i in str1:print(ord(i))# 方法二:str2 = sys.stdin.readline()print(‘sys

2020-08-02 17:13:34 643

Policy Gradient 推导过程.pdf

Policy Gradient 推导过程.pdf

2022-02-27

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除