周志华《机器学习》自学总结+Python实现之——序言+如何使用本书+绪论

序言

这部分提出了针对机器学习的6个问题和对应的思考:

1. 对符号学习和统计学习地位的解读,相关学者认为未来统计学习的方法应当强调与知识或者认知的结合,从而实现螺旋上升;

2.机器学习的“样本同分布”假设是否可以被突破?或许迁移学习可以解决这个问题;

3.深度学习并非是机器学习的新方向,其兴起是由于计算力的提高;

4.机器学习需要更高深的数学理论去推动;

5.离散方法和连续方法之间的联系需要进一步的数学理论支撑;

6.大数据对机器学习方法背后的数理统计方法有没有发生本质的变化,其对机器学习的影响有待进一步研究。


如何使用本书

这部分大意是指,读者应该通过这本书学习机器学习的思想,而不是仅仅把目光放在算法的实现上,应学习其中的道,才能以不变应万变,因此,作者建议读者在不同时期,用不同的心态多多阅读几遍,掌握算法背后的思想脉络,方能融会贯通。


绪论

1.机器学习的定义。

在计算机上从数据中产生学习算法,学习算法基于经验数据产生模型,模型帮助我们解决问题。

2.机器学习的基本术语。

数据集(data set):待研究对象的样本集合,包含其属性/特征值。

样本(sample):单个研究对象,包含其自身的属性/特征值。

属性(attribute)/特征(feature):反映研究对象在某方面的表现或性质的事项,对应的取值为属性/特征值(value),属性张成的空间称为“属性空间”(attribute space)、“样本空间”(sample space)或“输入空间”

特征向量(feature vector):例如我们把“色泽”“根蒂”“敲声”作为三个坐标轴,则它们张成一个用于描述西瓜的三维空间,每个西瓜都可在这个空间

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
首先,我们需要加载数据集,好瓜坏瓜数据集可以在UCI机器学习库中找到,下载地址为:https://archive.ics.uci.edu/ml/datasets/Watermelon+Dataset+3.0。 数据集中包含17个属性,如下所示: 1. 编号 2. 色泽 3. 根蒂 4. 敲声 5. 纹理 6. 脐部 7. 触感 8. 密度 9. 含糖率 10. 类别 其中,前9个属性为特征,第10个属性为类别,表示该瓜是好瓜还是坏瓜。 接下来,我们先加载数据集,然后将数据集划分为训练集和测试集。代码如下: ```python import pandas as pd import numpy as np from sklearn.model_selection import train_test_split # 加载数据集 data = pd.read_csv('watermelon.csv') # 划分训练集和测试集 train_data, test_data = train_test_split(data, test_size=0.3, random_state=1) ``` 接着,我们需要对训练集进行处理,计算出每个特征在不同类别下出现的概率以及每个类别的概率。具体地,我们需要计算出以下三个概率: 1. P(c):类别为c的概率 2. P(x|c):在类别为c的情况下,特征x出现的概率 3. P(x):特征x出现的概率 其中,P(c)可以通过训练集中类别为c的样本数量除以总样本数量得到,P(x|c)可以通过训练集中类别为c且特征x出现的样本数量除以类别为c的样本数量得到,P(x)可以通过训练集中特征x出现的样本数量除以总样本数量得到。 代码如下: ```python # 计算P(c) def calc_pc(train_data): pc = {} for i in train_data['class'].unique(): pc[i] = (train_data['class']==i).sum() / train_data.shape[0] return pc # 计算P(x|c) def calc_pxc(train_data): pxc = {} for c in train_data['class'].unique(): pxc[c] = {} for column in train_data.columns[:-1]: pxc[c][column] = {} for value in train_data[column].unique(): pxc[c][column][value] = \ ((train_data[column]==value) & (train_data['class']==c)).sum() \ / (train_data['class']==c).sum() return pxc # 计算P(x) def calc_px(train_data): px = {} for column in train_data.columns[:-1]: px[column] = {} for value in train_data[column].unique(): px[column][value] = (train_data[column]==value).sum() / train_data.shape[0] return px # 计算P(c)、P(x|c)和P(x) pc = calc_pc(train_data) pxc = calc_pxc(train_data) px = calc_px(train_data) ``` 最后,我们可以根据朴素贝叶斯算法,计算出测试集中每个样本属于不同类别的概率,并根据概率大小进行分类。代码如下: ```python # 对测试集进行分类 def classify(test_data, pc, pxc, px): y_pred = [] for i in test_data.index: p = {} for c in pc.keys(): p[c] = pc[c] for column in test_data.columns[:-1]: p[c] *= pxc[c][column][test_data.loc[i, column]] / px[column][test_data.loc[i, column]] y_pred.append(max(p, key=p.get)) return y_pred # 对测试集进行分类 y_pred = classify(test_data, pc, pxc, px) # 计算分类准确率 acc = (y_pred==test_data['class']).sum() / test_data.shape[0] print('Accuracy:', acc) ``` 完整代码如下:

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值