机器学习
JohnsonSmile
这个作者很懒,什么都没留下…
展开
-
模式识别具体过程
原创 2019-03-19 20:54:43 · 2617 阅读 · 0 评论 -
AdaBoostClassifier(一):参数说明
AdaBoostClassifier是集成学习的一种集成方法,其采用的基础分类器默认为决策树,在sklearn库中该分类器有如下参数:from sklearn.ensemble import AdaBoostClassifier;model = AdaBoostClassifier( base_estimator=None, n_estimators=-50, l...原创 2019-03-25 18:45:03 · 4891 阅读 · 2 评论 -
BaggignClassifier(一):参数说明
BaggignClassifier是集成学习的一种集成方法,俗称袋装法,在sklearn库中该分类器有如下参数:from sklearn.ensemble import BaggignClassifier;model = BaggignClassifier( base_estimator=None, n_estimators=10, max_samples=1...原创 2019-03-25 18:50:17 · 666 阅读 · 0 评论 -
决策树原理
一、概述决策树是一种功能强大而且较为受欢迎的分类预测工具。这种工具能以树形图将对实例分类时产生的规则表达出来。决策树是一种典型的非线性分类器。二、基本原理2.1 表现形式决策树基本组成部分:决策节点、分支、叶子。其中每个分支都是一个新的决策节点或者叶子。根节点:决策树最上边(开始)的节点。决策节点:一个问题或决策,通常对应分类对象的属性。叶子:一种可能的分...原创 2019-03-25 23:49:51 · 1404 阅读 · 0 评论 -
关于训练误差、测试误差、泛化误差
我们在学习模式识别的时候,总是会遇到一些专业词汇,而其中有的专业词汇叫人傻傻分不清。今天我就来说说训练误差、测试误差、泛化误差到底是什么,区别所在。对于分类学习算法,我们一般将样本集分为训练集和测试集,其中训练集用于算法模型的学习或训练,而测试集通常用于评估训练好的模型对于数据的预测性能评估。而这个先后顺序就是先将算法在训练集上训练得到一个模型,然后在测试集上评估性能。这个...原创 2019-03-30 03:27:24 · 25613 阅读 · 0 评论 -
过度拟合 Over fitting
一:说明过度拟合是指模型与训练数据拟合较好,训练误差很小或没有训练误差,但不能很好地推广到不可见数据。或者说在实际的整个数据分布(包含训练集以外实例)上表现不好时,称之为该模型存在过度拟合。由于测试学习算法是否成功在于算法对于训练中未见过的数据的预测执行能力。因此换句话说,模型的训练误差小,泛化误差高,两者间差距过大时,我们称之为该模型存在过度拟合。二:产生的原因通...原创 2019-03-30 03:53:46 · 2886 阅读 · 0 评论 -
sklearn 集成学习AdaBoostClassifier参数详解
https://www.cnblogs.com/mdevelopment/p/9445090.html转载 2019-03-23 13:36:11 · 5356 阅读 · 0 评论 -
sklearn K近邻KNeighborsClassifier参数详解
【原文网址】https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.htmlclasssklearn.neighbors.KNeighborsClassifier(n_neighbors=5,weights=’uniform’,algorithm=’auto’,le...转载 2019-03-23 13:47:56 · 10787 阅读 · 4 评论 -
关于原始特征、有效特征、特征提取、特征选取
一:特征:特征分为原始特征、有效特征。1.1 原始特征:可以通过测量直接得到的特征。原始特征通常有很大冗余,如果直接将原始特征作为分类特征送入分类器,不仅使分类器复杂、计算量大,且分类错误率不一定小,因此有必要减少特征数目,以获取少而精的分类特征。1.2 有效特征:有代表性、分类性能好的特征(通常是采用特征提取、特征选取方法获得的)。特点:①类内稳定,即类内差异小,...原创 2019-03-30 14:49:45 · 3892 阅读 · 0 评论 -
主成分分析法PCA(一):算法原理
一:算法概述:主成分分析法,principle component analysis,PCA。也称主分量分析,是一种大样本,多变量数据间内在关系的一种方法。这种方法利用降维的思想,通过向量变换的方法将众多线性相关指标转换成少数线性无关的综合指标,从而切断相关的干扰,指出主导成分,作出更准确的估量。PCA在几何上表现为:将原坐标变换成新正交坐标系,使之指向样本点散步最开的p个正交方向。在...原创 2019-03-30 22:39:56 · 4665 阅读 · 0 评论 -
主成分分析法PCA(二):python实现
三:算法代码这里我将代码分享给大家,但大家使用时请附上来源!!import numpy as np;class PCA: def __init__(self,rate=0.85,is_normal=False): self.rate = rate; self.is_normal=is_normal; def average(self,x,...原创 2019-03-30 22:43:34 · 1366 阅读 · 0 评论 -
DecisionTreeClassifier(一):参数说明
DecisionTreeClassifier又称决策树,在sklearn库中该分类器有如下参数:from sklearn.tree import DecisionTreeClassifier;model = DecisionTreeClassifier( criterion='gini', splitter='best', max_depth=None, ...原创 2019-03-25 18:40:29 · 2025 阅读 · 1 评论 -
LogisticRegression(一):参数说明
LogisticRegression又称对数回归或逻辑回归,常用于分类的两类问题,在sklearn库中该分类器有如下参数:from sklearn.linear_model import LogisticRegression;model = LogisticRegressioni( penalty='l2', dual=False, tol=0.0001, ...原创 2019-03-25 18:36:24 · 3206 阅读 · 0 评论 -
MLPclassifier(一):参数说明
MLPclassifier又称多层感知机Multiple layers perception或神经网络,在sklearn库中的该分类器有以下参数:from sklearn.neural_network import MLPClassifier;model = MLPClassifier( hidden_layer_sizes=(100, ), activation=’r...原创 2019-03-25 18:29:37 · 7091 阅读 · 0 评论 -
机器学习相关概念
一:机器学习形式:此学习方式中,数据处理以人为标注为标准判断。分以下两种方式:1)监督学习:即学习目标采用具有人工标注的数据辅助完成学习,即样本数据带标签(data,label) 特点:效果显著,成本昂贵。 经典算法:BN、SVN、KNN、CBR等2)无监督学习:与监督学习相对,使计算机自身自动学习,以多种...原创 2019-03-16 23:33:25 · 199 阅读 · 0 评论 -
机器学习常用概念
训练集 构成监督学习经验的案例集合。 测试集 评估算法识别效果的案例集合。 训练误差 模型在训练集上表现的误差。 测试误差 模型在测试集上的误差。 泛化 机器学习的核心,是在训练集上训练好的模型在...原创 2019-03-21 03:12:49 · 187 阅读 · 0 评论 -
神经网络原理及python实现(四)
https://www.cnblogs.com/liuwu265/p/4696388.html转载 2019-03-18 00:23:15 · 140 阅读 · 0 评论 -
神经网络原理及python实现(一)
神经网络算法原理及编程实现Author:shoupt,Johnson·smith一:神经网络算法概述: ANN(Artificial Neural Network)算法是一种模拟动物神经网络行为特征的算法。这种算法是由大量简单的神经元(或神经节点,计算单元)构成的非线性系统。它在一定程度上模拟了人脑神经系统的信息处理、存储和检索功能,它是对人脑神经网络的某种简化、抽象和模拟。...原创 2019-03-18 00:25:37 · 912 阅读 · 0 评论 -
神经网络原理及python实现(三)
四:ANN Classifier算法实现:import numpy as np;from numpy import random,mat,multiply,sqrt;import scipy.special as ss;import random as R;import copy;from sklearn.neighbors import KNeighborsClassifier;...原创 2019-03-18 00:37:39 · 323 阅读 · 0 评论 -
神经网络原理及python实现(二)
因为CSDN上编辑公式有点麻烦,就偷个懒,把文章转成图片了哈哈原创 2019-03-18 00:49:05 · 219 阅读 · 0 评论 -
交叉验证 cross validation
交叉验证 cross validation:一:基本概念 交叉验证是机器学习在建立模型和验证模型参数时常用的方法。通常用于原始数据不是很充足时,使用交叉验证来重复的使用数据,把原始数据集进行切分组合成多组不同的训练集(训练模型)和测试集(评估模型预测好坏)。 交叉的概念指拆分组合的训练集和测试集的数据是交叉的,比如训练集的样本数据可能下一次就会出现在测试集中。[...原创 2019-03-22 00:36:52 · 856 阅读 · 0 评论 -
集成学习
原创 2019-03-18 19:17:28 · 121 阅读 · 0 评论 -
sklearn 决策树DecisionTreeClassifier()参数详解
【原文网址】:https://blog.csdn.net/li980828298/article/details/51172744使用sklearn中自带的决策树方法简单代码 如下:from sklearn import treemode = tree.DecisionTreeClassifier(criterion='gini')mode.fit(X,Y)y_test = mod...转载 2019-03-25 17:51:34 · 5483 阅读 · 0 评论 -
KNeighborsClassifier(一):参数说明
KNeighborsClassifier又称K最近邻,是一种经典的模式识别分类方法。sklearn库中的该分类器有以下参数:from sklearn.neighbors import KNeighborsClassifier;model = KNeighborsClassifier( n_neighbors=5, weights=’uniform’, alg...原创 2019-03-25 18:23:24 · 8924 阅读 · 0 评论 -
sklearn 逻辑回归LogisticRegression参数详解
【原文网址】:http://70b86a48.wiz03.com/share/s/1MK6F81-vQ1i2DFlsT0ux-iU2qccii0xCkjZ2Si7Lw1pfOQ3api 参数 意义 备注 LogisticRegression的parameters penalty 惩罚项,用于指定惩罚项使用的范式类型,支持L1范式和L2范式 ...转载 2019-03-23 23:53:10 · 2596 阅读 · 0 评论