机器学习
文章平均质量分 91
lemonaha
stay hungry,stay foolish
展开
-
机器视觉开源代码集合
FROM: http://www.cnblogs.com/einyboy/p/3594432.html一、特征提取Feature Extraction:SIFT [1] [Demo program][SIFT Library] [VLFeat]PCA-SIFT [2] [Project]Affine-SIFT [3] [Project]SURF转载 2016-01-30 13:59:30 · 998 阅读 · 0 评论 -
六、逻辑回归与最大熵模型
六逻辑回归与最大熵模型1 逻辑回归模型11 逻辑分布logistics regression12二项逻辑回归模型13模型参数估计14多项逻辑回归2最大熵模型21最大熵原理22最大熵模型的定义23最大熵模型的学习24极大似然估计3模型学习的最优化算法六、逻辑回归与最大熵模型逻辑回归(logistic regression)是统计学习中的经典分类方法。最大熵是概率模型学习的一个准则原创 2017-04-10 18:03:14 · 681 阅读 · 0 评论 -
PCA中的数学概念
在多元统计分析中,主成分分析(英语:Principal components analysis,PCA)是一种分析、简化数据集的技术。主成分分析经常用于减少数据集的维数,同时保持数据集中的对方差贡献最大的特征。这是通过保留低阶主成分,忽略高阶主成分做到的。这样低阶成分往往能够保留住数据的最重要方面。但是,这也不是一定的,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大原创 2017-03-30 09:07:42 · 2364 阅读 · 0 评论 -
机器学习常见算法面试题总结
机器学习常见算法面试题总结朴素贝叶斯P(A∩B)=P(A)*P(B|A)=P(B)*P(A|B) 所以有:P(A|B)=P(B|A)*P(A)/P(B) 对于给出的待分类项,求解在此项出现的条件下各个目标类别出现的概率,哪个最大,就认为此待分类项属于哪个类别工作原理 假设现在有样本x=(a1,a2,a3,…an)这个待分类项(并认为x里面的特征独立) 再假设现在有分类目标Y={y1,y2,y转载 2017-02-26 22:26:25 · 681 阅读 · 0 评论 -
五、决策树--统计学习方法总结
五决策树1决策树模型与学习11决策树模型12决策树与if-then规则13决策树与条件概率分布14决策树学习2特征选择21特征选择问题22信息增益23信息增益比3决策树的生成31 ID3算法32 C45的生成方法4决策树的剪枝5 CART算法51 CART生成52 CART剪枝五、决策树决策树(decision tree)是一种基本的分类与回归方法,这里主要讨论用于原创 2016-12-26 15:05:47 · 5358 阅读 · 0 评论 -
四、朴素贝叶斯法--统计学习方法总结
四朴素贝叶斯法1朴素贝叶斯法的学习与分类11基本方法12后验概率最大化的含义2朴素贝叶斯法的参数估计21极大似然估计22学习与分类方法23贝叶斯估计四、朴素贝叶斯法朴素贝叶斯(naive Bayes)法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率的最原创 2016-12-09 09:47:03 · 539 阅读 · 0 评论 -
三、k近邻法--统计学习方法总结
三k近邻法1 k近邻算法2 k近邻模型31模型22距离度量23 k值的选择24分类决策规则3k近邻法的实现kd树31构造kd树32搜索kd树三、k近邻法k近邻法(k-nearest neighbor, k-NN)是一种基本分类与回归方法。这里只讨论分类问题中的k近邻法。k近邻法的输入为实例的特征向量,对应于特征空间的点;输出为实例的类别,可以取多类。k近邻法假设给定一个训练数据集,原创 2016-11-30 17:03:32 · 1199 阅读 · 0 评论 -
二、感知机--统计学习方法总结
二感知机1感知机模型2 感知机学习策略21数据集的线性可分性22感知机学习策略3感知机学习算法31感知机学习算法的原始形式32算法的收敛性33感知机学习算法的对偶模式二、感知机感知机(perceptron)是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1 , -1 二值。感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。感知机原创 2016-11-22 12:53:29 · 918 阅读 · 0 评论 -
一、概论--统计学习方法总结
统计学习方法统计学习方法一统计学习方法概论1 统计学习2监督学习21输入空间特征空间输出空间22联合概率分布23假设空间3 统计学习的三要素31 模型32策略4模型评估与模型选择41训练误差与测试误差42过拟合与模型选择5正则化与交叉验证51正则化52交叉验证6泛化能力61泛化误差7生成模型与判别模型8分类问题9标注问题10回归问题一、统计学习方法概论1.原创 2016-11-18 16:28:13 · 595 阅读 · 0 评论 -
qt 在ubuntu下的下载安装及测试
1.下载建议直接安装下面链接中qt下面的qt-opensource-linux-x64-5.4.0.run可以避免很多安装中的问题为了后面例子代码编译生成的统一性,也为了方便国内用户下载,本人将 Qt 5.4.0 版本开发环境存了一份在百度网盘里: http://pan.baidu.com/s/1nuk5Lbz 下载参考链接 https://lug.ustc.edu.cn/sites/qtgui原创 2016-12-09 09:42:20 · 3518 阅读 · 0 评论 -
numpy安装说明
1、 正确安装python3.4或2.7。 2、 下载numpy的.whl文件(各种包的.whl文件下载地址http://www.lfd.uci.edu/~gohlke/pythonlibs/按需要选择对应版本,cp后的数字表示的是对应的python的版本(如cp27表示python2.7上用)后面的win32表示32位操作系统上用。),选择对应版本。 3、 下载好后将.whl文件放在py转载 2016-11-29 16:42:11 · 335 阅读 · 0 评论 -
Linear SVM 和 LR 有什么异同以及分别在什么情况下使用?
Linear SVM和LR都是线性分类器Linear SVM不直接依赖数据分布,分类平面不受一类点影响;LR则受所有数据点的影响,如果数据不同类别strongly unbalance一般需要先对数据做balancingLinear SVM依赖数据表达的距离测度,所以需要对数据先做normalization;LR不受其影响Linear SVM依赖penalty的系数,实验中需要做validati原创 2017-02-16 12:43:02 · 2652 阅读 · 0 评论