![](https://img-blog.csdnimg.cn/20190918135101160.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习
分享自己学习机器学习、深度学习过程中的心得
梅菜扣肉鱼丸粗面
这个作者很懒,什么都没留下…
展开
-
VGGNet简介及VGG13实现cifar100分类
VGGNet简介VGGNet简介VGGNet由牛津大学计算机视觉组合和Google DeepMind公司研究员一起研发的深度卷积神经网络。VGG名字来源于Visual Geometry Group, Department of Engineering Science, University of Oxford。它探索了卷积神经网络的深度和其性能之间的关系,通过反复的堆叠3*3的小型卷积核和2*2的最大池化层,成功的构建了16~19层深的卷积神经网络。VGGNet获得了ILSVRC 2014年识别比.原创 2020-12-22 13:40:29 · 3111 阅读 · 2 评论 -
机器学习之集成学习:GBDT
一、什么是GBDT原创 2020-07-18 23:11:35 · 832 阅读 · 0 评论 -
机器学习之集成学习:随机森林
一、什么是随机森林随机森林,Random Forest,简称RF,是集成学习思想中bagging的一个变种,随机森林在以决策树为基学习器的构建的bagging集成的基础上,在决策树的构建过程中引入了属性随机选择。一般的决策树的...原创 2020-07-15 18:49:26 · 427 阅读 · 0 评论 -
机器学习之集成学习:adaboost+详细构建实例分析
一、原创 2020-07-17 16:30:26 · 1283 阅读 · 0 评论 -
机器学习之集成学习:bagging、boosting和stacking
一、什么是集成学习集成学习,顾名思义就是将多个学习器结合起来以完成学习任务的一种学习思想。俗话说,三个臭皮匠,顶一个诸葛亮,集成学习就是运用了这种思想。一个模型的结果存在一定的随机性,那么就采用多个模型来抵消这种随机性,大家都说好才是真的好。所以理论上集成学习的思想可以提高模型的性能。以分类任务为例,我们可以训练m个分类器,每个分类器可以采用相同的算法,也可以采用不同的算法。如果每个分类器均选择决策树算法,那么这个集成学习算法就叫做随机森林,如果各个分类器不一样,最终组合在一起的方法,称为Stack原创 2020-07-14 23:02:00 · 1981 阅读 · 1 评论 -
机器学习之聚类算法:K均值聚类(二、算法案例)
一、简易数据集的Kmeans实现数据下载 提取码:quu3导入库并载入数据:import numpy as npimport matplotlib.pyplot as plt # 载入数据data = np.genfromtxt("kmeans.txt", delimiter=" ")定义函数:计算距离、初始化聚类中心和更新聚类中心函数:# 计算距离 def euclDistance(vector1, vector2): return np.sqrt(su..原创 2020-07-12 11:15:08 · 3102 阅读 · 4 评论 -
机器学习之聚类算法:K均值聚类(一、算法原理)
一、K均值聚类原创 2020-07-12 10:52:06 · 11162 阅读 · 0 评论 -
机器学习之PCA:主成分分析(二、算法案例)
目录一、降维实例二、鸢尾花数据集降维一、降维实例data数据下载,提取码:fobw导入库、载入数据并可视化:import numpy as npimport matplotlib.pyplot as pltdata = np.genfromtxt("data.csv", delimiter=",")x_data = data[:,0]y_data = data[:,1]plt.scatter(x_data,y_data)plt.show()画出的图如下:..原创 2020-07-11 09:01:16 · 1080 阅读 · 0 评论 -
机器学习之PCA:主成分分析(一、算法原理)
一、主成分分析主成分分析是一种常用的无监督学习方法。它利用正交变换,把由线性相关变量表示的观测数据转换成少数几个由线性无关变量表示的数据,线性无关的变量称为主成分。由于主成分个数通常少于原始变量的个数,所以这一方法属于降维。PCA的一般流程是:...原创 2020-07-10 23:25:01 · 927 阅读 · 0 评论 -
机器学习之朴素贝叶斯:Naive Bayesian(二、算法案例)
一、鸢尾花数据集朴素贝叶斯实现# 导入算法包以及数据集from sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitfrom sklearn.metrics import classification_report,confusion_matrixfrom sklearn.naive_bayes import MultinomialNB,BernoulliNB,Gaussian原创 2020-07-10 11:07:43 · 1096 阅读 · 0 评论 -
机器学习之朴素贝叶斯:Naive Bayesian(一、算法原理)
一、概率论基础原创 2020-07-09 09:58:47 · 511 阅读 · 0 评论 -
机器学习之决策树:二、算法案例
一、鸢尾花数据集决策树分类from sklearn.datasets import load_irisfrom sklearn import tree from sklearn.model_selection import train_test_splitfrom sklearn.metrics import accuracy_scorefrom sklearn.metrics import classification_report,confusion_matrixfrom sklear原创 2020-07-08 10:33:18 · 414 阅读 · 0 评论 -
机器学习之决策树:一、算法原理
目录一、算法介绍二、概念介绍2.1、信息熵2.2、信息增益与信息增益率一、算法介绍决策树(Decision tree)是一种基本的分类与回归算法,本次博客只讨论用于分类的决策树。决策树,顾名思义,是一种基于树结构的决策选择模型,表示基于特征对实例分类的过程。它可以认为是if-then的规则集合,也可以认为是特征空间上的条件概率分布。决策树依据对某种特征的满足与否进行子集划分,整棵树的节点分为内部节点和叶子节点,内部节点对应作为划分依据的特征,叶子节点表示满足从根节点到该叶子节点.原创 2020-07-07 21:49:00 · 265 阅读 · 0 评论 -
机器学习之KNN:K近邻算法(二、算法案例)
一、KNN的简单实现案例假设我们有两类样本:A和B,均为二维数据,A类包括:(2,8)(2.5,10)(2,9),B类包括:(4,2)(4,1)(4.5,3),测试样本点为(3,9)。首先导入数据,数据分布如下图:import matplotlib.pyplot as pltimport numpy as npimport operator# 已知分类的数据x1 = np.array([2,2.5,2])y1 = np.array([8,10,9])x2 = np.array([4.原创 2020-07-05 16:45:10 · 435 阅读 · 0 评论 -
机器学习值KNN:K近邻算法(一:算法原理)
一、KNN概述KNN是一种常见的有监督学习算法,可以用于分类,也可以用于回归,比较常用于回归。K近邻算法的直观解释就是给定一个已知样本分类的训练数据集,当有新样本输入时,在训练集中找到K个和新样本距离最近的的训练样本,这K个训练样本多数属于哪个类别,就把这个新样本判定为哪个类别。二、KNN三要素2.1、距离度量多维特征空间中,两个样本的距离,代表这两个样本的相似程度,距离越近,相似程度就越高,属于同一类别的概率就越大,KNN通常使用的距离度量方法是欧几里得距离,简称欧氏距离。在n...原创 2020-07-04 21:07:15 · 4397 阅读 · 1 评论 -
近似误差与估计误差
误差误差是指测量值与真实值之间的差距,误差的大小反映了实验、观察、测量和近似计算等所得结果的精确程度。误差的绝对值越小,精确程度越高。近似误差与估计误差近似误差:对现有训练集的训练误差。估计误差:在测试集上的测试误差。我们先从字面意思上理解,我们在训练过程中,追求的是要训练误差尽可能的小,就是要尽可能的逼近训练集的数据,使预测值与训练集相似程度更高,因此模型预测出来的值与训练数据的误差称为近似误差。而在测试过程中,我们是要比较用模型估计出来的值与真实值之间的差距,侧重点在于估计,所以这个误差称为估原创 2020-07-03 18:10:22 · 4258 阅读 · 2 评论 -
2020李宏毅机器学习课程作业——Homework2:classification(Logistic Regression)
一、作业获取途径课程网址:http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML20.htmlB站视频地址:https://www.bilibili.com/video/BV1JE411g7XF?from=search&seid=18330864429491522852如果不能访问课程网址,作业的压缩包如下,链接:https://pan.baidu.com/s/1PZZnWZKZONDCGTMznKINEg提取码:5of8案例提供的是在Col.原创 2020-06-27 23:32:27 · 2118 阅读 · 7 评论 -
机器学习之逻辑斯蒂回归
目录一、分类与回归二、逻辑回归不是回归三、生成式逻辑回归四、判别式逻辑回归五、逻辑回归为什么不用均方误差做损失函数六、判别模型与生成模型的比较七、写在最后一、分类与回归回归与分类是机器学习的基本问题。回归是预测连续值,分类是预测离散值;回归的输出可以是任意值,而分类的输出只能是预设的分类输出的一个,比如(0,1)中的0或1.;理论上讲,如果回归的输入值相近,那么它的预测值也是相近的,而分类的输入相近(在同一个分类决策边界内),那么它们的预测值是一样的,代表属于同一类...原创 2020-06-26 18:32:47 · 855 阅读 · 0 评论 -
2020李宏毅机器学习课程作业——Homework1:Linear Regression
一、作业获取途径课程网址:http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML20.htmlB站视频地址:https://www.bilibili.com/video/BV1JE411g7XF?from=search&seid=18330864429491522852如果不能访问课程网址,作业的压缩包如下,链接:https://pan.baidu.com/s/1PZZnWZKZONDCGTMznKINEg提取码:5of8案例提供的是在Col.原创 2020-06-20 21:36:34 · 6876 阅读 · 7 评论 -
机器学习之线性回归
目录一、回归与分类二、 线性回归的直观解释三、线性回归的一般形式四、求解参数五、过拟合和正则化一、回归与分类回归与分类是机器学习的基本问题。回归是预测连续值,分类是预测离散值;回归的输出可以是任意值,而分类的输出只能是预设的分类输出的一个,比如(0,1)中的0或1.;理论上讲,如果回归的输入值相近,那么它的预测值也是相近的,而分类的输入相近(在同一个分类决策边界内),那么它们的预测值是一样的,代表属于同一类别。举个例子:预测明天的气温是回归问题,因为预测值可以是正常温..原创 2020-06-20 10:19:39 · 585 阅读 · 1 评论