机器学习
文章平均质量分 89
鼹鼠的胡须
这个作者很懒,什么都没留下…
展开
-
Pyroch中nn.Sequential的多输入问题
Pyroch中nn.Sequential的多输入问题nn.Sequential为何不能处理多输入?nn.Sequential 通过单参数处理多输入问题nn.Sequential为何不能处理多输入?先上两个小例子直观感受一下:class MyLayer(nn.Module): def __init__(self): super(MyLayer, self).__init__() self.conv1 = nn.Conv2d(3, 32, 1, 1, bias=Fa原创 2020-08-28 13:20:48 · 9186 阅读 · 13 评论 -
视频前背景分离论文之(4) A Probabilistic Approach to Robust Matrix Factorization
1、AbstractPRMF:formulated with a Laplace error and a Gaussian prior which correspond to an l1loss and an l2regularizer.原创 2016-11-30 22:48:09 · 817 阅读 · 0 评论 -
视频前背景分离论文之(5) Robust PCA via Nonconvex Rank Approximation
1、AbstractRPCA是低秩矩阵恢复的general的模型框架, 在某些假设下它能够以很大的概率很好地恢复原矩阵潜在的低秩矩阵(the underlying true low rank matrix)的,然而,实际应用中这些假设并不一定成立 。在RPCA中核范数是通过将奇异值加和来逼近矩阵的秩的,即相当于求奇异值的ℓ1−norm\ell_{1}-norm. 这样得到的近似误差是不可忽略的,因此原创 2016-12-16 11:49:20 · 2407 阅读 · 0 评论 -
视频前背景分离论文之(3) Group Sparsity in Nonnegative Matrix Factorization
1、Abstract(1)features or data items belonging to the same group share the same sparsity pattern in low-rank factors. (2)Proposed \textcolor{blue}{mixed-norm} regularization to promote group sparsity i原创 2016-11-30 22:32:48 · 1031 阅读 · 0 评论 -
视频前背景分离论文之(2) GOSUS: Grassmannian Online Subspace Updates with Structured-sparsity
1、Abstract:(1) view online estimation procedure as an approximate optimization on a Grassmannian(格拉斯曼流形); (2) leverage structured-sparsity to model both homogeneous perturbations of the subspace and原创 2016-11-30 22:23:08 · 803 阅读 · 0 评论 -
视频前背景分离论文之(1) Online Robust PCA via Stochastic Optimization
视频前后背景分离论文:Online Robust PCA via Stochastic Optimization原创 2016-11-30 22:05:27 · 1080 阅读 · 0 评论 -
矩阵分解(MF)方法及代码
一、基于投影梯度法的非负矩阵分解论文:Projected gradient methods for non-negative matrix factorization 代码:Matlab及Python源码二、基于类牛顿法的最小二乘矩阵近似解法论文:Fast Newton-type Methods for the Least Squares Nonnegative Matrix Approxima原创 2017-04-22 21:57:24 · 4492 阅读 · 0 评论 -
DL去燥之 DnCNNs:Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising
网络结构:DnCNNs: feed-forward denoising convolutional neural networks 学习策略Residual Learning:通过残差学习策略,在网络的隐层隐式地移除干净图片(clean image)。即输入为带噪的观测图片(noisy image),输出为移除了干净图片的残差(噪声)图片(residual image)。这样做的动机是,用残差学习原创 2017-06-09 00:02:10 · 7946 阅读 · 7 评论 -
二分类模型评估之 ROC曲线和PR曲线
ROC曲线:ROC曲线一系列根据不同的二分类方式(阈值或分界值),以真阳性率TPR(灵敏度)为纵坐标,假阳性率FPR(1-特异度)为横坐标绘制的曲线。原创 2017-09-03 22:11:49 · 10175 阅读 · 1 评论 -
EM算法MATLAB代码及详细注解
下面代码为PRML所附的基于混合高斯(MoG)的代码,个人认为编码可读性和风格都值得借鉴。function [label, model, llh] = mixGaussEm(X, init)% Perform EM algorithm for fitting the Gaussian mixture model.% Input: % X: d x n data matrix% ini原创 2017-04-28 19:57:18 · 31269 阅读 · 13 评论 -
ISTA算法求解L1正则化问题
ISTA算法求解L1正则化问题原创 2016-11-30 21:41:11 · 5630 阅读 · 0 评论 -
SLIC原理简介及VLFeat代码示例
SLIC,即简单线性迭代聚类,是一种简单有效的图像分割方法,其本质是局部空间的K-means聚类。原创 2016-10-20 23:25:27 · 2716 阅读 · 0 评论 -
机器学习之 了解TensorFlow
把复杂运算放在python之外完成,减少从外部运算切回Python以及各计算单元(CPU或GPU)之间数据迁移的操作,比如通过symbol-to-symbol的计算模式,将计算图的定义转换成分布式执行的操作, 充分利用可用的计算资源,最后以节点符号返回我们关注的计算对象并进行赋值。原创 2016-07-27 18:03:10 · 533 阅读 · 0 评论 -
深度学习试验之 多层感知器
深度学习试验之 多层感知器验证了 数据预处理和模型初始化对MLP影响,验证了 BP过程中添加冲量项对MLP影响,以及通过自动编码器(Autoencoder)预训练MLP隐层的参数,特别地通过Denoising Autoencoder改变小部分原始数据为0来训练了参数(类似dropout),验证了无监督预训练对网络的影响。原创 2016-07-18 01:27:18 · 1365 阅读 · 0 评论 -
优化方法之朗格朗日对偶性
拉格朗日对偶性拉格朗日对偶性常用来解决约束最优化问题,其思想是将原始问题转换为对偶问题,通过解对偶问题间接求出原始问题。原创 2016-01-08 17:31:25 · 2683 阅读 · 1 评论 -
K-means Matlab代码
K-means的Matlab实现并没有任何难度,之所以要把今天的代码贴出来,主要因为编码的过程中感觉自己写出的程序效率好弱鸡,想通过张量编码的方式优化优化。原创 2016-08-17 16:58:32 · 1792 阅读 · 0 评论 -
感知机算法原理及代码实现
最原始的感知机学习算法仅仅对于线性可分的训练集是收敛的.原创 2016-09-10 14:44:48 · 3781 阅读 · 0 评论 -
OpenCV之均值漂移(Mean Shift)算法
Mean Shift向量Mean Shift向量:偏移的均值向量。Mean Shift算法:指一个迭代的步骤,即先算出当前点的偏移均值,移动该点到其偏移均值,然后以此为新的起始点,继续移动,直到满足一定的条件结束。原创 2016-07-18 00:13:24 · 22034 阅读 · 5 评论 -
机器学习之 特征选择
机器学习过程中,特征选择是避免维数灾难和减低学习难度的有效途径。特征选择的过程,即为选择对当前学习任务有用的属性(相关特征)和去除无用属性(冗余特征)的过程。那么,如何选择有用的特征子集以及如何评价相对好的特征子集是特征选择的关键步骤。原创 2016-09-12 19:13:27 · 1220 阅读 · 0 评论 -
优化方法之 牛顿法和拟牛顿法
牛顿法是每一次迭代过程中,目标函数在局部可以近似表示成二次函数,然后以该二次函数的极值点来代替目标函数的极值点,不断重复直到收敛。只不过是在牛顿法的迭代过程中将hesse阵的逆的计算用一个$n$阶矩阵$G_k$来代替了原创 2016-08-23 16:12:34 · 1303 阅读 · 0 评论 -
密度聚类DBSCAN原理及代码实现
1、密度聚类及DBSCAN密度聚类:密度聚类算法,即基于密度的聚类,此类算法假设聚类结构能通过样本分布的紧密程度确定。通常,密度聚类算法从样本密度的角度来考察样本之间的可连接性,并基于可连接样本不断拓展聚类簇以获得最终的聚类结果。DBSCAN是典型的密度聚类算法,它基于一组“邻域”参数(ϵ,MinPts)(\epsilon,MinPts)来刻画样本分布的紧密程度。原创 2016-08-24 18:54:18 · 16168 阅读 · 1 评论 -
机器学习之 EM算法
算法概述EM算法,即期望极大算法(expectation maximization algorithm)是一种迭代算法,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。数学表示我们用YY表示观测随机变量(不完全随机变量)的数据,ZZ表示隐随机变量的数据。YY和ZZ一起称为完全数据。假设给定观测数据YY,其概率原创 2016-03-15 14:12:50 · 896 阅读 · 0 评论