algorithm && data process
文章平均质量分 70
code_Rocker
machine learning,action/gesture recognition.
Be a Fighter
展开
-
MATLAB多分类,使用libsvm和linear的详解和区别
MATLAB多分类,使用libsvm和linear的区别最近还是在做多分类的问题,之前使用的是libsvm进行多分类,主要使用的是1V1和1Vrsst,具体可参见这篇博文。这两天看到liblinear这个库,针对多分类问题有很好的改进。这里随笔记下:liblinear链接,liblinear相比于libsvm最大的优点是快,二者针对多分类的区别在官网也有详细的解释: For some multi-原创 2016-09-26 18:43:10 · 2921 阅读 · 0 评论 -
MATLAB实现多分类问题,使用libsvm,1-vs-rest和1-vs-1两种方法代码
最近的项目需要实现多分类,主要的平台是MATLAB+LIBSVM. 如果需求只是实现二分类,那非常简单,可以参见这篇博文多分类存在的主要问题是,LIBSVM主要是为二分类设计的,为了实现多分类就需要通过构造多个二分类器来实现. 目前,构造SVM多类分类器的方法主要有两类:一类是直接法,直接在目标函数上进行修改,将多个分类面的参数求解合并到一个最优化问题中,通过求解该最优化问题“一次性”实现多类分原创 2016-09-23 14:31:42 · 8175 阅读 · 2 评论 -
(Python实现)数据PCA降维白化和L2归一化-深度学习实践常用数据预处理
在深度学习网络训练之前,一般需要对数据进行预处理 1:减去均值,然后归一化 2:PCA白化 本文从python代码实现的角度去实现它 首先生成一个随机数组用于实验,维度是(40,500),代表有40个样本,每个样本的维度是500维。from numpy import randomX= random.random(size=(40,500))1:减去均值,然后归一化X -= np.mean(原创 2017-01-05 10:37:56 · 12067 阅读 · 0 评论 -
L1归一化和L2归一化范数的详解和区别
一句话介绍就是: L1 norm就是绝对值相加,又称曼哈顿距离; L2 norm就是欧几里德距离之和L2范数: 在向量范数范围内: L1范数就是等于各个值的绝对值相加,这里不贴公式了。从公式上来说: L1的公式: 绝对值相加 L2的公式: 欧几里德距离之和 就是样本和标签之差的平方之和两个范数的简单性能对比: 在正则化中二者的区别: 同时注意由于L1是绝对值之和原创 2017-01-11 10:36:23 · 54084 阅读 · 6 评论 -
MATLAB自带工具箱实现PCA降维代码,着重介绍实现方法
作为项目中需要进行PCA降维,环境是MATLAB,但是在网上找了很多都是介绍PCA原理的,的确介绍的很仔细,但是我是一个工科狗,只是想最快查到用代码实现降维的方法而已,网上的对我来说太多了,因此在此做一个总结,出于对知识的 尊重,插两篇介绍的不错的PCA 原理文章,只是想实现pCA的大可不必看.原理文章1 原理文章2下面开始介绍用MATLAB自带工具包函数pca(对应老版本函数princomp,在原创 2016-10-09 15:40:38 · 25901 阅读 · 6 评论 -
hard negative mining分析得最好的理解
hard negative mining的理解,摘自:这里写链接内容: R-CNN在训练SVM分类器时使用了难分样本挖掘(hard negative mining)的思想,但Fast R-CNN和Faster R-CNN由于使用端到端的训练策略并没有使用难分样本挖掘(只是设置了正负样本的比例并随机抽取)。CVPR2016的Training Region-based Object Detec原创 2018-01-25 14:13:53 · 16522 阅读 · 6 评论