![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
dashan8608
每天进步一点点
展开
-
集成学习 bagging RF提高分类准确率
集成学习是将多个基分类器进行组合,提高分类的准确率,组合的策略有投票法、平均法、加权法、学习法(尚没有看懂),基分类器要做到“好而不同”,每个基分类器学习不同的特征,要有多样性。 采用自助采样法。 给定包含m个样本的数据集,随机的从 样本中抽取一个样本放入采样集中,再把该样本放回初始数据集,使得次采样的时候仍然有可能被选中,经过m次的采集得到含有m个样本的数据集,初始训练集中约有63%的样本出...原创 2018-08-28 14:30:54 · 1620 阅读 · 1 评论 -
深度学习超参数简单理解 learning rate,weight decay和momentum
https://blog.csdn.net/amds123/article/details/69621688 到这些参数就会想到Stochastic Gradient Descent (SGD)!其实这些参数在caffe.proto中 对caffe网络中出现的各项参数做了详细的解释。 Learning Rate 学习率决定了权值更新的速度,设置得太大会使结果超过最优值,太小会使下降速度过慢。...转载 2018-12-12 20:24:30 · 269 阅读 · 0 评论 -
11.28
关于行列式的计算,用某一行或者某一列去乘其他的元素,注意的是要区分正负,,t是当前元素的下标,,t的值就是下标元素的值相加之和。 行列式变换为三角形行列式: 先将第一行(列)与其他行(列)互换,使得第一行第一列的元素不为0,最好为1 将第一行分别乘以适当的数加到其他行,使第一行除第一个元素之外的元素为0 对行列式继续以同样的方式进行处理,去掉第一行第一列之后所剩元素的第一阶行列式,直至成为...原创 2018-11-28 17:00:07 · 157 阅读 · 0 评论 -
样本去中心化目的
机器学习:样本去中心化目的 作者:Spark 链接:https://www.zhihu.com/question/37069477/answer/132387124 在回归问题和一些机器学习算法中,以及训练神经网络的过程中,通常需要对原始数据进行中心化(Zero-centered或者Mean-subtraction)处理和标准化(Standardization或Normalization)处理。...转载 2018-11-28 16:07:59 · 1211 阅读 · 0 评论 -
2018.12.04 verification models and identification models
参考文章内容:Learning deep features from body and parts for person re-identification in camera networks verification models and identification models: The verification models [10–12] takepairs of images a...原创 2018-12-04 12:45:46 · 207 阅读 · 0 评论 -
梯度下降的三种形式
梯度下降法的三种形式BGD、SGD以及MBGD 转自:https://zhuanlan.zhihu.com/p/25765735 在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。 下面我们以线性回归算法来对三种梯度下降法进行比较。 一般线性回归函数的假设函数为: 对应的损失函数为:...转载 2018-09-27 16:51:54 · 774 阅读 · 0 评论 -
PCA
文章转载自http://www.cnblogs.com/zhangchaoyang/articles/2222048.html 主成分分析(Principal components analysis)-最大方差解释 在这一篇之前的内容是《Factor Analysis》,由于非常理论,打算学完整个课程后再写。在写这篇之前,我阅读了PCA、SVD和LDA。这几个模型相近,却都有自己的特...转载 2018-09-03 15:12:25 · 155 阅读 · 0 评论 -
注意力机制 Attention Model
未接触Attention Model之前,更多的疑惑是AM在图像当中的如何应用,怎样在图像中计算图像局部的注意力,计算的公式及参数的优化等。看了文章之后,发现介绍的几乎是AM在NLP中以及文本中的应用。 一下文章转载自https://blog.csdn.net/mpk_no1/article/details/72862348 深度学习里的Attention model其实模拟的是人脑的注意力模...转载 2018-08-30 14:45:47 · 549 阅读 · 0 评论 -
convolution1D 2D
conv2d(input, filter, strides, padding, use_cudnn_on_gpu=True, data_format="NHWC", dilations=[1, 1, 1, 1], name=None) """Computes a 2-D convolution given 4-D `input` and `filter` tensors.""" 给定4维...原创 2018-09-04 20:36:48 · 1332 阅读 · 0 评论 -
理解SVM(二)——线性不可分的情况
文章转载自https://blog.csdn.net/puqutogether/article/details/41309745 理解SVM(二)——线性不可分的情况 前面一篇介绍了SVM的基本原理和代码实现。其中提到了原始的SVM对数据对好要线性可分的假设太严格了,很多数据在一定程度上都不是线性可分的。那么这篇我们就要好好说说SVM对于线性不可分的情况是怎么处理的。 1. 什么是线...转载 2018-08-28 17:02:11 · 1961 阅读 · 0 评论 -
roi pooling
RoI Pooling是什么 具体是怎么操作的原创 2019-05-08 16:23:55 · 147 阅读 · 1 评论