自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 支持向量机

支持向量机支持向量机的基本想法就是在样本空间中找到一个划分超平面,寻求最大间隔,将不同类别的样本分开,距离超平面最近的几个训练样本点,正好在分割线上,它们称之为“支持向量”。 任意点x到超平面的距离为: r=|wTx+b|||w||r=\frac{|w^T x+b|}{||w||} 点到直线的距离为:|Ax0+By0+c|A2+B2√\frac{|Ax_0+By_0+c|}{\sqrt{A^2

2018-04-20 15:23:22 167

转载 关于矩阵的直观理解

学习链接1、矩阵的乘法 2、

2017-12-28 11:27:12 519

原创 数值优化方法

数值优化参考书

2017-12-24 13:10:41 2541

原创 降维和度量学习

k近邻学习:给定测试样本,基于某种距离测量找到训练集上与其最靠近的k个样本,根据这k个样本的信息预测测试样本,一般用投票法。也可以用线性加权的方法,距离越远,权重越小。 算法:一般选取一个较小的数值,通常采取交叉验证的方法求最优的k值。降维:线性降维(主成分分析法)用特征值和特征向量近似还原协方差矩阵,通过选取比较大的特征值来达到降维的目的。(相似矩阵)核化线性降维首先将原始空间映射到更高维空间,

2017-12-24 13:09:46 293

原创 线性模型

一、一般线性回归基本形式:f(x)=w1x1+w2x2+...+wdxd+bf(x)=w_1x_1+w_2x_2+...+w_dx_d+b,dd个自变量,1个因变量。 用向量形式写成:f(x)=wTx+bf(x)=w^Tx+b,其中w=(w1;w2;...;wd)w=(w_1;w_2;...;w_d). 用最小二乘法对ww和bb进行估计。 把ww和bb吸收入向量形式w^=(w;b)\hat w

2017-12-14 21:47:11 1007

原创 决策树进阶

一、决策树基础回顾 决策树有三种算法:ID3,C4.5以及CART。ID3用的是信息增益准则,偏好于可取值数目较多的属性。C4.5介于信息增益准则和增益率准则之间,先从候选划分属性中找出信息增益高于平均水平的属性,然后从这些属性中选择增益率最大的,这样在选择结点时受属性的取值数目影响较小。CART算法则是和ID3算法异曲同工,只是衡量数据集的纯度所用的方法不一样,CART用基尼值来度量数据集的纯

2017-12-13 10:06:31 604

原创 **决策树基础以及Python代码实现**

决策树基础以及Python代码实现 一、一些定义: 1. 信息: 西瓜有好瓜和坏瓜,好瓜的信息为l(xi)=−log2p(xi)l(x_i)=-\log_2 p(x_i)p(xi)p(x_i)为好瓜的概率,根据-log函数的图像,如果好瓜的概率越大,信息会趋近于0,也就是从一堆瓜里选出好瓜所需要的信息量越少。 2. 信息熵:熵是信息的期望值Ent(D)=−∑k=1npklog2pkEnt(D)

2017-12-12 16:18:43 351

原创 用Python画Logistic函数图像

import matplotlib.pyplot as pltimport numpy as npx = np.arange(0,1,0.01)y = ln(x/(1-x))plt.plot(y,x)

2017-11-03 22:23:58 6557

原创 arange 和range的区别

arange是numpy中的函数,所以要先调用numpy       from numpy as np       np.arange(0,1,0.01) #0是start,1是stop,0.01是步长。但在range中,只能是整数,不能是浮点数。

2017-11-03 22:09:31 2170

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除