自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 集成学习(提升方法)

集成方法和提升学习其实都差不多,集成学习(Ensemble Learning)有时被笼统地称作提升(Boosting)方法,广泛用于分类和回归任务。集成方法思想:使用一些不同的方法改变原始训练样本的分布,从而构建多个不同的分类器,并将这些分类器线性组合得到一个更强大的分类器,来做最后的决策。这不是简单的人多力量大,而是三个臭皮匠赛过诸葛亮,因为这样做往往能产生1+1>2的效果 。对于集成学习,我们面临两个主要问题:1.如何改变数据的分布或权重2.如何将多个弱分类器组合成一个强分类器针对上述问

2020-08-16 11:15:01 1509

原创 贝叶斯简单介绍

贝叶斯决策论贝叶斯决策轮是基于贝叶斯理论的决策方法。先来说一下贝叶斯公式。如果先验概率给出,并且知道了条件概率,那么就可以通过贝叶斯公式求出后验概率。并根据这个概率得到一个最优决策,谓之贝叶斯决策。如果先验概率P(0),P(1)已知,条件概率P(x|1)和P(x|0)也已知,可以计算得到无条件概率:P(x)=P(0)P(x|0)+P(1)P(x|1);后验概率P(0|x)= P(0)P(x|0)/P(x),P(1|x)=P(1)P(X|1)/P(x),如果P(0|x)>P(1|x),判决为0,

2020-07-26 15:06:54 2161

原创 VGGNet网络结构简单介绍

VGGNet简单概括深度学习在数据处理和数据计算上最重要的就是卷积层和全连接层,VGGNet可以看成是加深版本的AlexNet,都是由卷积层、全连接层两大部分构成。2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发出了新的深度卷积神经网络:VGGNet,并取得了ILSVRC2014比赛分类项目的第二名(第一名是GoogLeNet,也是同年提出的)和定位项目的第一名。由此可见,VGGNet的效果非常的好。VGGNet探索了卷积

2020-07-26 11:45:52 1570

原创 sklearn——线性逻辑回归和非线性逻辑回归

线性逻辑回归本文用代码实现怎么利用sklearn来进行线性逻辑回归的计算,下面先来看看用到的数据。这是有两行特征的数据,然后第三行是数据的标签。python代码首先导入包和载入数据写一个画图的函数,把这些数据表示出来:然后我们调用这个函数得到下面的图像:接下来开始创建模型并拟合,然后调用sklearn里面的逻辑回归方法,里面的函数可以自动帮算出权值和偏置值,非常简单,接着画出图像。最后我们可以来看看评估值:可以看到,正确率、召回率、F1值都达到了95%。非线性逻辑回归非

2020-06-07 19:58:02 1388 1

原创 机器学习——逻辑回归

逻辑回归介绍逻辑回归用来解决分类的问题,和线性回归的对值的预测不同,逻辑回归重点预测的是类别的分配。比如:逻辑回归有一个专门的代价函数,θT可以理解为一个线性回归函数,下面是这个代价函数的图像,x取无穷大的时候趋近于1,取无穷小的时候,趋近于0.决策边界分类问题一个重要的点就是找到决策边界,然后才能进行分类,如下图:经过3,3这个点的线可以视为决策边界,把样本分为两类,这条线的表示为h0(x)。在决策边界上的点等于0;红色的样本数据代入公式后得到大于0的数,归为y=1这类;蓝色的样本数

2020-06-07 13:58:49 178

原创 机器学习——LASSO算法

LASSO算法的简单介绍LASSO算法和岭回归算法在应用目的上其实都是相似的,这两种算法的本质就是两种不同的正则化方法。下面来看看这两种方法的对比:岭回归是L1正则化,LASSO是L2正则化。两个回归系数的值都可以用来限制t,取值有相同的地方。这是一张表示系数和代价函数值关系的图:红色的圈圈表示的是代价函数值等高线,中间的黑点表示最小值。蓝色区域是系数的选取范围,可以看到,当选取范围和等高线交界的地方是最合适的取值点,这时即符合选取范围,代价函数的值也越接近中心的最小值。python实现——

2020-05-31 10:43:05 8638 1

原创 机器学习——岭回归

岭回归的简单介绍什么是岭回归?什么时候要用到岭回归?岭回归是一种解决标准方程法不能求逆矩阵时的办法。我们都知道,用标准方程法最大的一个缺点就是当数据的特征多于数据的样本时,标准方程法是不能使用的,因为不能求逆矩阵。而岭回归的引入很好地解决了这个问题。从公式我们可以看到,...

2020-05-31 08:52:40 4448

原创 机器学习——标准方程法及一些基础知识

标准方程法机器学习常用的减小代价函数的值的方法是梯度下降法,除此之外,还有一个常用的方法是标准方程法。让我们看看下面这个例子:x0是偏置值,都为1;x1是

2020-05-24 13:52:50 763

原创 机器学习——一元线性回归和多元线性回归

一元线性回归:梯度下降法一元线性回归是线性回归的最简单的一种,即只有一个特征变量。首先是梯度下降法,这是比较经典的求法。一元线性回归通俗易懂地说,就是一元一次方程。只不过这里的斜率和截距要通过最小二乘和梯度下降法不断迭代找到最优解。我们先来看看运用到的代价函数:最小二乘法。这其实和高中学的最小二乘法一模一样,不过值得注意的是,这里的2其实是可以消去的,这对结果的影响不大,之所以保留是因为,方便与之后求导所得的2消掉。梯度下降法:开始就说过,斜率和截距是要通过迭代计算求得的。因为初始化的斜率和截距所

2020-05-21 16:27:37 5410

原创 机器学习入门总览(下)

集成学习集成学习是机器学习中一个非常重要且热门的分支,是用多个弱分类器构成一个强分类器,核心理论就是团结力量大。一般的弱分类器可以由决策树,神经网络,贝叶斯分类器,K-近邻等构成。集成原因:1、模型选择 假设各弱分类器间具有一定差异性,这会导致生成的分类决策边界不同。所以它们多多少少都会有错误,于是把它们结合起来降低误差。2、数据集过大或过小。3、若决策边界过于复杂,则线性模型不能很好地描述真实情况。因此先训练多个线性分类器,再将它们集成。4、当有多个不同数据源,且每个数据源的特征集抽取方法都

2020-05-17 00:27:51 295

原创 机器学习入门总览(上)

什么是机器学习?机器学习是一门多学科交叉专业,涵盖概率论知识,统计学知识,近似理论知识和复杂算法知识,使用计算机作为工具并致力于真实实时的模拟人类学习方式, 并将现有内容进行知识结构划分来有效提高学习效率。简单来说,就是让电脑模拟人的学习行为,通过主动的输入大量数据,然后在特定的算法支持下产出一个"学习"后的结果。线性回归及非线性回归线性回归是机器学习的基础,其实就是一元一次方程。难度在于,这个一元一次方程的斜率和截距要通过最小二乘法和梯度下降法求出。线性回归可以解决一些特征少的问题,比如:房价和房

2020-05-16 23:21:49 329

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除