![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
super_jackchen
这个作者很懒,什么都没留下…
展开
-
梯度下降法和牛顿法的比较
文章目录梯度下降(Gradient Descent)算法1. 梯度下降背后的思想2. 三种梯度下降方法2.1 批量梯度下降(Batch Gradient Descent)2.2 随机梯度下降(Stochastic Gradient Descent)2.3 小批量梯度下降(MiniBatch Gradient Descent)牛顿法牛顿法和梯度下降法的比较梯度下降(Gradient Descent...原创 2019-11-15 12:37:47 · 716 阅读 · 0 评论 -
常用的特征工程方法
文章目录什么是特征工程特征工程的常用处理方法1.时间戳处理2.数据类别属性编码化3.分箱/分区4. 交叉特征5. 特征选择6、特征缩放7.特征提取什么是特征工程简单说,特征工程是能够将数据像艺术一样展现的技术。因为好的特征工程很好的混合了专业领域知识、直觉和基本的数学能力;本质上说,呈现给算法的数据应该能拥有基本数据的相关结构或属性 。当你做特征工程时,其实是将数据属性转换为数据特征...原创 2019-11-14 18:19:53 · 751 阅读 · 0 评论 -
集成学习
文章目录我们用到的skleran包bagging和boosting的思想简述各自的代表模型原理BoostingBaggingstacking和blending的原理和各自的优劣BlendingBlending 流程Blending 图解StackingStacking 流程Stacking 图解Blending与Stacking对比本文介绍了常用的skleran包,以及集成学习的bagging和...原创 2019-11-13 19:59:53 · 272 阅读 · 0 评论 -
决策树知识
文章目录引言决策树算法简介ID3算法的缺陷条件熵和信息增益的关系决策树的损失函数引言决策树模型在监督学习中非常常见,可用于分类(二分类、多分类)和回归。虽然将多棵弱决策树的Bagging、Random Forest、Boosting等tree ensembel 模型更为常见,但是“完全生长”决策树因为其简单直观,具有很强的解释性,也有广泛的应用,而且决策树是tree ensemble 的基础,...原创 2019-11-12 19:27:22 · 481 阅读 · 0 评论 -
向量的各种积,都有哪些,分别如何表示
文章目录标量乘向量向量点积向量外积矩阵向量积向量是线性代数中的基本概念,也是机器学习的基础数据表示形式。例如计算机阅读文本的过程首先就会将文本分词,然后用向量表示。这是因为向量很适合在高维空间中表达和处理。在机器学习中会接触到的诸如投影、降维的概念,都是在向量的基础上做的。这篇文章我们谈谈向量的各种积。标量乘向量标量 乘以向量 定义为:在数学中,标量乘法是由线性代数中的向量空间定义的...原创 2019-11-11 19:30:29 · 2414 阅读 · 0 评论 -
如何理解svm的损失函数
线性支持向量机还有另外一种解释,就是最小化以下目标函数(svm的损失函数):目标函数第一项为经验损失或经验风险,函数:称为合页损失函数,下标“+”“+”“+”表示取正值。在学习支持向量机的过程中,因为其损失函数的形状像一个合页,故命名合页损失函数。下图为合页损失函数的图像:横轴表示函数间隔,我们从两个方面来理解函数间隔:正负当样本被正确分类时,y(wx+b)>0y(...原创 2019-11-11 18:50:19 · 4464 阅读 · 0 评论 -
特征离散化
文章目录一、为什么离散化,离散化的优势特征离散化离散化的优势一、为什么离散化,离散化的优势在机器学习中,在很多案例中,人们在处理数据的时候,常常把连续特征离散化。那么为什么要用离散特征呢?这么做有什么优势?特征离散化数据离散化是将连续的数据进行分段,使其变为一段段离散化的区间。连续特征离散化的基本假设,是默认连续特征不同区间的取值对结果的贡献是不一样的。特征的连续值在不同的区间的重要性...原创 2019-11-11 09:20:10 · 549 阅读 · 0 评论 -
cut 与qcut
文章目录特征离散化离散化的优势在机器学习中,在很多案例中,人们在处理数据的时候,常常把连续特征离散化。那么为什么要用离散特征呢?这么做有什么优势?特征离散化数据离散化是将连续的数据进行分段,使其变为一段段离散化的区间。连续特征离散化的基本假设,是默认连续特征不同区间的取值对结果的贡献是不一样的。特征的连续值在不同的区间的重要性是不一样的,所以希望连续特征在不同的区间有不同的权重,实现的方...原创 2019-11-10 16:14:27 · 241 阅读 · 0 评论 -
特征归一化
文章目录什么是特征归一化?为什么要进行特征归一化(必要性)特征归一化的方法有哪些Min-Max Scaling(数据归一化)Zero-Score Normalization(数据标准化)特征归一化的好处什么是特征归一化?数据的标准化(normalization)是将数据按比例缩放,使之落入一个小的特定区间。在某些比较和评价的指标处理中经常会用到,去除数据的单位限制,将其转化为无量纲的纯数值,便...原创 2019-11-11 09:17:46 · 555 阅读 · 0 评论 -
【特征工程】变量编码方式
文章目录one-hot encoding(独热编码)dummy variable(哑变量)我们在用模型去解决机器学习问题的时候,要提前进行“特征工程”。而特征工程中很重要的就是对特征的预处理。分类变量是另一类常见的变量,用于表示类别或标记。与数值变量不同的是,分类变量的值是不能被排序的,所以也称无序变量。分类变量处理的核心是如何编码类别。最简单的方式就是使用正整数编码类别,但是这样就使得类别之间...原创 2019-11-11 09:17:56 · 650 阅读 · 0 评论 -
逻辑回归(Logistic Regression)
文章目录最小二乘估计与最大似然估计最小二乘估计最大似然估计二者关系最大后验与最大似然估计极大似然估计(MLE)最大后验概率估计(MAP)误差度量准确率(Accuracy)精确率(Precision)召回率(Recall)灵敏度和特异度最小二乘估计与最大似然估计最小二乘估计最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求...原创 2019-11-07 20:35:16 · 1322 阅读 · 0 评论 -
多项式回归
认识学习曲线假设我们有10000行数据,我们依次学习更多行的数据方法:数据集大小为横轴,训练误差为纵轴,绘制训练集曲线和验证集曲线如图所示:图1 为正常的学习曲线图2 为高偏差的学习曲线(欠拟合)图1 为高方差的学习曲线(过拟合)偏差:是指一个模型的在不同训练集上的平均性能和最优模型的差异。偏差可以用来衡量一个模型的拟合能力。偏差越大,预测值平均性能越偏离最优模型。偏差衡量模型的预...原创 2019-11-06 23:00:41 · 238 阅读 · 0 评论 -
过拟合与正则化
过拟合我们的数据在训练集上可能表现的很好,但是在遇到新数据后表现就没有那么出色,叫做过拟合以下是一个回归问题例子第一个模型是一个线性模型,欠拟合,不能很好地适应我们的训练集;第三个模型是一个四次方的模型,过于强调拟合原始数据,而丢失了算法的本质:预测新数据。我们可以看出,若给出一个新的值使之预测,它将表现的很差,是过拟合,虽然能非常好地适应我们的训练集但在新输入变量进行预测时可能会效果不好...原创 2019-11-06 19:57:37 · 317 阅读 · 0 评论 -
梯度下降算法
梯度下降法的简单介绍以及实现梯度下降法的场景假设什么是梯度用数学来解释梯度下降算法下面我们通过一个实例来认识一下什么是梯度!梯度下降的场景假设梯度下降法的基本思想可以类比为一个下山的过程。假设这样一个场景:一个人被困在山上,需要从山上下来(i.e.找到山的最低点,也就是山谷)。但此时山上的浓雾很大,导致可视度很低。因此,下山的路径就无法确定,他必须利用自己周围的信息去找...原创 2019-11-06 09:32:58 · 297 阅读 · 0 评论 -
机器学习基础
机器学习(MACHING LEARNING)一 认识机器学习定义:为了解决任务T,设计一段程序,从经验E中学习,达到性能度量值P,当且仅当有了经验E后,经过P评判,程序在处理T时的性能得到提升。二 机器学习分类1. 监督学习定义:训练样本包含对应的标签。比如Titanic数据集中生存与否就是标签。分类问题:样本标签属于离散变量,比如判断垃圾邮件。回归问题:样本标签属于连续变量,比...原创 2019-11-04 20:43:51 · 198 阅读 · 0 评论