机器学习
文章平均质量分 81
Qer_
这个作者很懒,什么都没留下…
展开
-
机器学习笔记(一):梯度下降算法,随机梯度下降,正规方程
一、符号解释M 训练样本的数量x 输入变量,又称特征y 输出变量,又称目标(x, y) 训练样本,对应监督学习的输入和输出表示第i组的x 表示第i组的yh(x)表示对应算法的函数是算法中的重要参数(向量)表示参数为的函数,以下考虑线性回归,所以表述为:二、梯度下降算法用表示函数计算输出的结果,用y表示期望的输出值则-y表示误差,若我们有m组训练原创 2017-02-13 23:39:26 · 22621 阅读 · 6 评论 -
PCA算法的原理以及c++实现(Eigen库实现)源码
今天学习了PCA算法,把自己的理解写在这里,一方面希望如果理解有什么偏差,大家能给予指正,另一方面希望能和大家一起共享知识。假设有一个多样本高维度的样本集,例如m个样本,每个样本维度为n我们想通过降维算法来降低维度到k(0(1)首先理解正交基分解:我们默认一个n维向量v=(x1,x2,x3……xn)是一个n维空间的以n个单位基底(1,0,0,……),(0,1,0,0……)…原创 2017-05-14 19:38:56 · 13239 阅读 · 12 评论 -
DCT变换及量化的c++实现(基于opencv矩阵运算)
由于DCT的数学原理不好描述,直接放代码了:#include#include#include#includeusing namespace std;using namespace cv;const double pi = 3.141592;void initDctMat(Mat &A) //计算8x8块的离散余弦变换系数{ for (int i = 0; i < 8; +原创 2017-05-27 23:17:33 · 7585 阅读 · 6 评论 -
感知机模型的原理
感知机模型感知机学习策略感知机学习算法原创 2017-05-28 23:01:32 · 1991 阅读 · 2 评论 -
Fisher线性判别分析
本文参考《模式识别》 张学工 以二分类介绍 fisher线性判别:把所有样本都投影到一个方向,然后在这个一维空间中确定一个分类阈值,而fisher要找的就是这个投影方向。 衡量投影方向的标准:选择投影方向,使投影后两类相邻尽可能远,同时每一类内部的样本又尽可能近。 算法推导 训练样本为{x1,x2,...,xN}\{x_1,x_2,...,x_N\}每一个样本是一个d维向量,即xi∈Rdx原创 2017-05-29 23:01:57 · 9580 阅读 · 1 评论 -
k近邻算法的kd树实现原理
本文参考 《统计学习方法》 李航k近邻k近邻又叫KNN,是一种基本分类方法。k近邻假设给定一个训练数据集,其中实例类别已定,分类时,对于新的实例,根据其k个最近邻的训练实例类别,通过多数表决的方式进行预测。k近邻的kd树实现k近邻有一个很大的缺陷就是搜索速度比较慢,最简单的搜索方式就是对训练样本线性遍历,当训练数容量很大时,算法耗时难以接受。kd树: kd树是一种对k维空间实例点进行存储以便于快速原创 2017-05-30 13:35:00 · 2461 阅读 · 0 评论 -
朴素贝叶斯分类
朴素贝叶斯分类原创 2017-05-31 20:06:15 · 462 阅读 · 0 评论 -
DNN反向传播推导过程
1.L" role="presentation" style="position: relative;">LLL层神经网络的前向传播:设第l" role="presentation" style="position: relative;">lll层的权值矩阵为Wl" role="presentation" style="position: relative;">WlWlW^l,输出为zl" r原创 2018-02-05 19:57:23 · 2657 阅读 · 0 评论 -
图像语义分割 (零) —— 基本概念、数据集、方法
由于要接触语义分割相关领域,随着自己的学习,也希望能够写下一些总结性的博客和大家一起分享并互相学习。 我会将语义分割一系列的popular algorithm论文总结、剖析、实现,以进一步加深对此领域的理解。一、基本概念什么是语义分割? 语义分割(semantic segmentation)是计算机视觉的一个重要问题,将视觉输入划分为不同语义可解释类别,即像素级别的分割,并且分割是有语义信...原创 2018-12-03 20:29:16 · 1830 阅读 · 0 评论