自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Python开发工程师

叙事、说情、谈见解、聊技术,公众号:it男余康的逻辑思维

  • 博客(13)
  • 收藏
  • 关注

原创 go语言编译器LiteIDE安装和下载

LiteIDE编译器下载地址链接:https://pan.baidu.com/s/1DQgTpg_5TpRg6Gz4X7GJkA 密码:vgoe 解压之后找到目录:liteide\bin下的liteide.exe双击打开即可。 GO语言下载安装地址官网安装包下载地址为:https://golang.org/dl/    #这是官网,需要翻。。。墙才能下载安装。如果打...

2018-09-21 10:15:35 2297

原创 sklearn如何做好特征工程

以下内容相关包信息:Python3 相关下载主要包:sklearn(scikit-learn),numpy ,scipy安装:pip install 包名 ,建议安装顺序numpy,scipy,sklearn(scikit-learn)以下信息参考于知乎,对于部分信息进行修改:1 特征工程是什么?  有这么一句话在业界广泛流传:数据和特征决定了机器学习的上限,而模型和算法只是逼...

2018-09-07 10:47:27 4552

原创 No module named 'sklearn.lda'

当我们使用 sklearn 调用 lda 中的 线性判别分析法(LDA)报错问题。from sklearn.lda import LDA 这种调用方式是老版本的 sklearn 我们应该尝试用新版本的调用方式就可以解决问题。解决方式:from sklearn.discriminant_analysis import LinearDiscriminantAnalysi...

2018-09-07 10:23:52 8583 1

转载 机器学习之信息增益(熵和条件熵)

本文转载于:https://blog.csdn.net/chunyun0716/article/details/51289940要了解信息增益,我们要先知道熵与条件熵的定义。2.1 熵熵是无序度的度量,在信息论和统计中,熵表示随机变量不确定性的度量。假设XX是一个取有限值的离散型随机变量,它的概率分布如下:P(X=xi)=pi,i=1,2,…,nP(X=xi)=pi,i=1,2,...

2018-09-07 10:00:32 5818

转载 机器学习之特征选择方法总结

文章转载于:https://blog.csdn.net/lihaitao000/article/details/51213563?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io1、为什么要做特征选择在有限的样本数目下,用大量的特征来设计分类器计算开销太大而且分类性能差。2、特征选择的确切含义...

2018-09-07 09:18:34 4444

原创 人工智能算法公式中常见的数据符号的定义和解释?

长期更新中...... 没有记录的希望大家留言补充对数:(log,lg,ln,lb)loglog4 (8)=log4 (4*2)=log4 (4)+log4 (2)=1+0.5=1.5log4 (2)=0.5因为4的1/2次方是2ln是底数为e的对数,比如ln3,就是指e的x次方等于3,这个x就是ln3的值。e叫自然对数,他的值大约是2.718左右。P:概率...

2018-09-06 19:20:23 10816

转载 统计学离散型变量和连续型变量有什么区别?

离散变量是指其数值只能用自然数或整数单位计算的则为离散变量.例如,企业个数,职工人数,设备台数等,只能按计量单位数计数,这种变量的数值一般用计数方法取得.反之,在一定区间内可以任意取值的变量叫连续变量,其数值是连续不断的,相邻两个数值可作无限分割,即可取无限个数值.例如,生产零件的规格尺寸,人体测量的身高,体重,胸围等为连续变量,其数值只能用测量或计量的方法取得.如果变量可以在某个区间内取任一...

2018-09-06 18:48:07 75986

原创 机器学习度量方式之基尼不纯度(Gini impurity)和信息熵(Python实现)

决策树是一种简单的机器学习方法。决策树经过训练之后,看起来像是以树状形式排列的一系列if-then语句。一旦我们有了决策树,只要沿着树的路径一直向下,正确回答每一个问题,最终就会得到答案。沿着最终的叶节点向上回溯,就会得到一个有关最终分类结果的推理过程。以下为决策树过程:初始化:#! /usr/bin/python# -*- coding: utf8 -*-# @Time ...

2018-09-06 18:34:55 10627

转载 皮尔森相关系数和样本方差

数据来源百度百科皮尔森相关系数皮尔森相关系数的公式为:样本的简单相关系数一般用r表示,其中n 为样本量, 分别为两个变量的观测值和均值。r描述的是两个变量间线性相关强弱的程度。r的取值在-1与+1之间,若r>0,表明两个变量是正相关,即一个变量的值越大,另一个变量的值也会越大;若r<0,表明两个变量是负相关,即一个变量的值越大另一个变量的值反而会越小。r 的绝对值越大表...

2018-09-06 14:59:37 3338

原创 递归特征消除Recursive feature elimination (RFE)

递归特征消除的主要思想是反复的构建模型(如SVM或者回归模型)然后选出最好的(或者最差的)的特征(可以根据系数来选),把选出来的特征选择出来,然后在剩余的特征上重复这个过程,直到所有特征都遍历了。这个过程中特征被消除的次序就是特征的排序。因此,这是一种寻找最优特征子集的贪心算法。RFE的稳定性很大程度上取决于在迭代的时候底层用哪种模型。例如,假如RFE采用的普通的回归,没有经过正则化的回归是...

2018-09-06 09:32:12 11439 6

转载 机器学习特征选择之卡方检验与互信息

本文转载于:https://blog.csdn.net/yihucha166/article/details/50646615特征选择的主要目的有两点:1.减少特征数量提高训练速度,这点对于一些复杂模型来说尤其重要2.减少noisefeature以提高模型在测试集上的准确性。一些噪音特征会导致模型出现错误的泛化(generalization),从而在测试集...

2018-09-05 19:41:39 2857

原创 数据预处理中常见的哑编码/独热编码(One-Hot Encoding)详解(一看就懂)

通常需要处理的数值都是稀疏而又散乱地分布在空间中,然而,我们并不需要存储这些大数值,这时可以用独热编码。例如:我们需要处理4维向量空间,当给一个特征向量的第n个特征进行编码时,编码器会遍历每个特征向量的第n个特征,然后进行非重复计数。若第n个特征的最大值为K,则就把这个特征转换为只有一个值为1而其他值都是0的K+1维向量。encoder=OneHotEncoder(sparse=Fal...

2018-09-04 15:47:08 21071 2

原创 机器学习中稀疏矩阵的处理方式和Python实现

在矩阵中,如果数值为0的元素数目远远多于非0元素的数目,并且非0元素分布无规律时,则称该矩阵为稀疏矩阵;与之相反,若非0元素数目占大多数时,则称该矩阵为稠密矩阵。大的稀疏矩阵在一般情况下是通用的,特别是在应用机器学习中,例如包含计数的数据、映射类别的数据编码,甚至在机器学习的整个子领域,如自然语言处理(NLP)。教程概述本教程分为5部分;分别为:稀疏矩阵稀疏的问题机器学习中...

2018-09-04 15:33:58 20675 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除