自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

转载 空间金字塔池化(Spatial Pyramid Pooling, SPP)

Introduction 主要参考这两篇博客: https://blog.csdn.net/yzf0011/article/details/75212513 https://blog.csdn.net/u011534057/article/details/512...

2018-07-26 11:59:47 25465 6

转载 深度学习模型——AlexNet

Alex在2012年提出的alexnet网络结构模型引爆了神经网络的应用热潮,并赢得了2012届图像识别大赛的冠军,使得CNN成为在图像分类上的核心算法模型。input的图片如果是3通道,用三维卷积核进行卷积操作,得到的是二维的(将三个通道的卷积相加),再加上卷积核的数目,变...

2018-07-25 18:54:56 668

原创 python求素数对(质数对)个数

室友在看牛客网的编程题目时看到了这个题目,自己也做了做,写的代码比别人要复杂许多,说明还存在很多问题,这里放一下看到的不错的两种python代码,可以看一下:首先是题目:第一个代码:import math def isOk(n):    if n & 1 == 0:        return False    i = 3    n_sqrt = math.sqrt(n)  ...

2018-04-20 18:38:44 14135

原创 实现python爬虫

看到CSDN公众号推荐的一个猫眼电影前100的爬虫程序(来自于https://zhuanlan.zhihu.com/p/33819401),实现了下,记录一下过程:主要分为3步:1. HTML下载器、2. HTML解析器、3. 数据存储器。需要的库有requests,re(正则化表达式用),json(爬下来的数据格式是json格式,读取处理用),multiprocessing(多进程)。reque...

2018-04-18 15:35:35 529

转载 fine-tuning:利用已有模型训练其他数据集

看了这篇文章,受益匪浅,对fine-tuning有了好的理解,实验与理论结合,大佬讲的好。http://blog.csdn.net/yj3254/article/details/52704361

2018-03-17 14:53:09 358

转载 EM算法

     其基本思想是:首先根据己经给出的观测数据,估计出模型参数的值;然后再依据上一步估计出的参数值估计缺失数据的值,再根据估计出的缺失数据加上之前己经观测到的数据重新再对参数值进行估计,然后反复迭代,直至最后收敛,迭代结束。     EM算法作为一种数据添加算法,在近几十年得到迅速的发展,主要源于当前科学研究以及各方面实际应用中数据量越来越大的情况下,经常存在数据缺失或者不可用的的...

2018-03-15 16:18:31 355 1

转载 stacking做CV的一些用法和理解

主要的一点是,我们使用基础模型的预测作为堆叠模型的特征(即元特征)。因此,堆叠模型能够辨别每个模型在哪里执行得很好,以及每个模型执行得不好的地方。同样重要的是要注意,train_meta的第i行中的元特征不依赖于第i行中的目标值,因为它们是使用在基本模型的拟合过程中排除了target_i的信息而产生的。或者,我们可以在适合每个测试折叠后立即使用每个基本模型对测试数据集进行预测。在我们的

2018-01-26 00:25:07 1641

转载 熵与信息增益

熵与信息增益原文来自[熵与信息增益](http://blog.csdn.net/xg123321123/article/details/52864830)在决策树算法中,决定特征优先级时,需要用到熵的概念,先挖个坑1 信息量信息量是用来衡量一个事件的不确定性的;一个事件发生的概率越大,不确定性越小,则它所携带的信息量就越小。假设X是一个离散型随机变量,其取值集合为X的信息量为: I(x0)=−

2018-01-11 11:12:49 380

转载 GBDT(梯度提升决策树)

gbdt树分为两种,(1)残差版本   残差其实就是真实值和预测值之间的差值,在学习的过程中,首先学习一颗回归树,然后将“真实值-预测值”得到残差,再把残差作为一个学习目标,学习下一棵回归树,依次类推,直到残差小于某个接近0的阀值或回归树数目达到某一阀值。其核心思想是每轮通过拟合残差来降低损失函数。   总的来说,第一棵树是正常的,之后所有的树的决策全是由残差来决定。(2)梯度

2018-01-10 23:32:05 3588

转载 分类树和回归树

分类树 以C4.5分类树为例,C4.5分类树在每次分枝时,是穷举每一个feature的每一个阈值,找到使得按照feature阈值分成的两个分枝的熵最大的阈值(熵最大的概念可理解成尽可能每个分枝的男女比例都远离1:1),按照该标准分枝得到两个新节点,用同样方法继续分枝直到所有人都被分入性别唯一的叶子节点,或达到预设的终止条件,若最终叶子节点中的性别不唯一,则以多数人的性别作为该叶子节点的性别。

2018-01-10 16:14:12 1344

转载 信息熵

总结一下自己开始的疑问:信息量是用来衡量一个事件的不确定性的;一个事件发生的概率越大,不确定性越小,则它所携带的信息量就越小。熵越大,指该事件包含的信息量越大,熵是用来衡量一个系统的混乱程度的,代表一个系统中信息量的总和;信息量总和越大,表明这个系统不确定性就越大。信息量用来衡量一个事件的不确定度,熵则用来衡量一个系统(也就是所有事件)的不确定度。熵是信息量的期望值,它

2018-01-10 16:05:26 2944

转载 线性判别分析(LDA)

线性判别式分析(Linear Discriminant Analysis, LDA),也叫做Fisher线性判别(Fisher Linear Discriminant ,FLD),是模式识别的经典算法,它是在1996年由Belhumeur引入模式识别和人工智能领域的。性鉴别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离

2017-12-03 11:45:34 1383

转载 协方差矩阵的意义

从物理意义上说,就是计算各维度之间的相关性(前提是已经经过白化)。由于样本特征均值白化后为0,各特征方差一样,计算得到的协方差矩阵,其中元素的值越大,则说明对应下标的特征之间相关性越高。PCA就是基于这种性质。对于机器学习领域的PCA来说,如果遇到的矩阵不是方阵,需要计算他的协方差矩阵来进行下一步计算,因为协方差矩阵一定是方阵,而特征值分解针对的必须是方阵,sv

2017-10-15 16:38:27 2208

转载 数据处理——白化whitening

白化whitening原文地址:http://blog.csdn.net/hjimce/article/details/50864602作者:hjimce一、相关理论    白化这个词,可能在深度学习领域比较常遇到,挺起来就是高大上的名词,然而其实白化是一个比PCA稍微高级一点的算法而已,所以如果熟悉PCA,那么其实会发现这是一个非常简单的算法。    白化的目的是去除输入数据的冗余信息。假设训练数

2017-10-15 16:32:52 1220

转载 看到的一些文本分类的一些问题(评论)

1. 你好 请问textcnn做长文本的话 比如某些类别平均长度已经是1400了,最长上万字,这时根据最长的做padding,内存占用会爆炸。。。另外是 长度非常不均匀,比如百分之一的长度几乎接近0(实际是因为里面全是图片或者视频),这种cnn怎么处理呢2. 你好,路过看到你的问题,我在某公司实习的时候,50w新闻语料分19类,长文(实际长短非常不均衡,textcnn论文语料应该是句子),然后

2017-09-27 21:25:55 734

转载 深度学习解决大规模文本分类问题 - 综述和实践

from  https://zhuanlan.zhihu.com/p/25928551(1)文本预处理文本分词去停用词(2)文本表示和特征提取文本表示:    文本表示的目的是把文本预处理后的转换成计算机可理解的方式,是决定文本分类质量最重要的部分。传统做法常用词袋模型(BOW, Bag Of Words)或向量空间模型(Vector Space M

2017-09-27 17:30:03 2068

转载 Python中列表list,元祖tuple和numpy中的array区别

1.列表     list是处理一组有序项目的数据结构,即你可以在一个列表中存储一个序列的项目。列表中的项目。列表中的项目应该包括在方括号中,这样python就知道你是在指明一个列表。一旦你创建了一个列表,你就可以添加,删除,或者是搜索列表中的项目。由于你可以增加或删除项目,我们说列表是可变的数据类型,即这种类型是可以被改变的,并且列表是可以嵌套的。列表是可以改变的,能够增加或减少,(ap

2017-09-25 16:12:50 9219

转载 CNN卷积层相关计算公式

师兄最近找工作笔试有遇到过~容易忘作者:机器之心链接:https://www.zhihu.com/question/52668301/answer/131573702来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。如果我们在输入内容的周围应用两次零填充,那么输入量就为 32×32×3。然后,当我们应用带有 3 个 5×5×3 的

2017-09-24 21:09:41 30542 1

转载 CNN的一些基本知识,以后有需要可以看看

主要是知乎上的一个,机器之心写的不错,容易理解。from https://www.zhihu.com/question/52668301作者:机器之心链接:https://www.zhihu.com/question/52668301/answer/131573702来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。第一层——数学

2017-09-24 20:40:10 711

转载 dropout和L1,L2正则化的理解笔记

理解dropout注意:图片都在github上放着,如果刷不开的话,可以考虑翻墙。转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/49022443123开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个m

2017-09-24 14:56:24 5351 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除