数据挖掘--分类

数据挖掘--引论

数据挖掘--认识数据

数据挖掘--数据预处理

数据挖掘--数据仓库与联机分析处理

数据挖掘--挖掘频繁模式、关联和相关性:基本概念和方法

数据挖掘--分类

数据挖掘--聚类分析:基本概念和方法


基本概念

决策树归纳

决策树:决策树是一种类似流程图的树结构,其中每个内部结点(非树叶节点)表示在一个属性上的测试,每一个分枝代表该测试的一个输出,而每个树叶节点存放一个类标号,树的最顶层及节点是根节点

属性选择

信息熵

p为概率

先计算总的信息熵=-((p(是)log2(p(是))+p(否)log2(p(否))

属性1种类1熵=-(p(种类1是)log2(种类1是)+p(种类1否)log2(种类1否))

属性1增益=总信息熵-p(种类1)属性1种类1熵-p(种类2)属性1种类2熵

取最大的

信息增益

基尼指数

属性1种类1权重(1-(是)^2-(否)^2)+ 属性1种类2权重(1-(是)^2-(否)^2)取最小的

贝叶斯分类方法

预测类隶属关系的概率例如:一个给定的元组属于另一个特定类的概率

贝叶斯定理

朴素贝叶斯

首先确定类别,不同类别的概率

列出每个类别中各个属性的概率

p(假设某个类别1)p(属性1|某个类别1)p(属性2|某个类别1)

p(假设某个类别2)p(属性1|某个类别2)p(属性2|某个类别2)

分别比较两个的概率,那个高就是哪个类别

ROC曲线

TP(真正例)(True Positive)、FP(假正例)、TN(真负例)(True Negative)、FN(假负例)

TPR=(真正例)/(真正例+假负例)(实际为真的总数)

FPR=假正例

AdaBoost

AdaBoost是一种流行的提升算法,创建分类器的组合,每个给出一个加权投票(评委打分,不由一个人的分数决定,专家和观众占不同的比例,最算出来的才是最终分数)

流程:

1.赋予每个训练元组相同的权重1/d

2.有放回的抽样,形成一个训练集Di

3.把这个训练集拿去训练,训练出分类器Mi

4.使用Di作为检验集,看Mi的错误率error

5.错误率大于0.5就需要重新抽样形成Di,重复步骤

6.找到一个正确的,更新权重(1-error)error

7.直到所有正确的分类元组被找到,规范每个元组权重

高级方法

向后传播分类

后向传播:

1后向传播是一种神经网络学习算法

2神经网络是一组连接/输出单元,每个连接都有一个权重

多层前馈神经网络

1后向传播在多层前馈神经网络上学习

2神经网络由一个输入层和一个输出层,一个或多个隐藏层和一个输出层组成

3.有几个输出单元就有几层神经网络

4.给定足够多的训练样本,多层前馈神经网络可以逼近任何函数,也就是可以去模拟任何问题

5.网络是前馈的,权重不会回送到输入单位

6.网络是全连接的

向后传播

支持向量机

无论在什么纬度,存在一个线性或者非线性的线或者平面可以去分开两个数据集

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值