随机数之和等于固定值 python_Python数据科学实践 | 机器学习模块1

本文通过Python的数据科学实践,介绍了机器学习的基本流程,包括数据准备、模型选择和模型训练。以猫狗识别为例,解释了如何将特征向量映射到函数输出,寻找最优函数f。接着,通过火锅店的案例进一步阐述了机器学习的概念,并用决策树模型进行二分类问题的解决。最后,展示了如何切分数据集并训练模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

aa96df40ef737f4f47f58482c60bb572.gif

d27f41eadd276275fec2d51e67fe2a78.png

大家好,基于Python的数据科学实践课程又到来了,大家尽情学习吧。本期内容主要由智亿同学与政委联合推出。

40b298f578ce91caee0f31bc806a6449.gif

本部分将学习利用sklearn的完成机器学习的基本流程:

●  数据准备

●  模型选择

●  模型训练

40b298f578ce91caee0f31bc806a6449.gif1.  什么是机器学习8e1829039808b85621b3770f619a50ef.gif

在开始学习scikit-learn之前,咱们首先来理解下什么是机器学习。如下图所示,

96d57ed1d8b6e02b65739efdf3ae01fe.png

很明显,是只猫的图片。但是,计算机可不知道这是什么玩意儿!在计算机中,图像也只是二进制文件而已。要让计算机能“分辨”出来这是只猫,我们首先得证明这只猫是只猫,而不是狗!所以,首要问题是如何描述猫的特征。猫常见的特征有:圆脸、两只尖耳朵,几根胡须,肥肚子、一根长尾巴。假设这些特征就已经能明显区分猫和狗了,也就是五个特征维度:脸的形状(圆脸还是长脸)、耳朵的形状(尖耳朵还是圆耳朵)、是否有胡须、肥胖程度、尾巴长度(长还是短),再把这些特征维度转换成计算机能理解的语言,例如得到下面这些这张特征表:

61658b01f52195d7eaeeb89e2f3be94c.png

这里规定:圆脸、有胡须、长尾巴、肥胖的动物为猫(尖耳朵或者圆耳朵皆可),特征向量为

[1 0 1 1 1]以及[1 1 1 1 1];长脸、尖耳朵、无胡须、短尾巴、瘦的动物为狗,特征向量为[0 1 0 0 0]。

最终,把得到的特征向量映射到某种函数f输出结果(判断结果是猫的为1,是狗的为0)。即:

f(96d57ed1d8b6e02b65739efdf3ae01fe.png) = “猫” 或者 "狗"。

以上流程可以总结为:

de56c11d1ecaa2ec8edd0c6f82c5600f.png

第一个箭头代表特征向量的提取,中间的盒子代表某种函数映射,第二个箭头代表结果判断。

一旦找到了这个最优函数f,再遇到一张图片(外样本)就可以用这个函数f判断是猫还是狗了。

机器学习就是寻找这个最优函数f的过程。

ec4a4332bccc6ad0ea43426a73c45514.gif

注意:现在本章对于机器学习的描述都集中在了有监督机器学习上,故我们这里混淆了机器学习的部分概念,具体的分类大家可以仔细查找。这样做是为了本章的方便叙述。

本着吃货的本性,我们从“吃”的角度再来深入理解下什么是机器学习。

政委虽然远在西安,但是特别喜欢老北京涮羊肉,一到冬天就停不下来。你要问他推荐一家店,必然推荐市中心那家。"市中心那家羊肉入口即化,食材新鲜、芝麻酱特别好吃、价格厚道、干净卫生...."。每开一家羊肉店,他准能告诉你这家店行不行。

他无数次的吃货经验得出,一家店是否值得经常光顾,主要取决于以下几点:主打菜是否有特色(羊肉味道)、食材是否新鲜、调料是否有特色(芝麻酱)、价格是否划算、店内环境。转换成计算机能理解的语言,也就是、

f8b23a69541b75f187efeb17c8a943c9.png

最终,特征向量为[1 1 1 1 1]的店才值得经常光顾;其他特征向量的店则视情况而定。

62c689c19298901cf7b7deb3486c12a2.png

上表简单列举了5种特征向量的情况,对应光顾频率。但是,如果要穷举所有情况,就要列举32次,即使对于资深吃货来说,为吃个饭这样也未免太麻烦。此时,用某个函数f把所有特征向量映射到光顾程度上,这样岂不美哉!也即:

f( 吃过所有店的特征向量 ) = 光顾程度(1→0递减,代表经常光顾和绝不光顾)

通过这个函数映射,所有店的情况都考虑进去了,我们就能据此判断一家新店是否值得经常光顾了。

总结:作为资深吃货,经常光顾各种店,每次光顾可视为一条数据(x),每条数据包含一家店的各种特征(如食材是否新鲜),得到特征向量,以及对应是否会再光顾(y)。通过多次光顾不同店铺(多个x),找到最佳的函数映射(f),据此判断一家新店是否值得经常光顾。

翻译成机器学习的语言就是:根据大量有数据标注(y,是否值得光顾)的特征向量(店的特征),寻找最佳函数,根据验证集的结果选择最佳模型,最终在测试集中测试模型。

2.  使用scikit-learn8e1829039808b85621b3770f619a50ef.gif

明白了什么是机器学习后,我们用火锅数据的例子来完成整个机器学习的过程。

ec4a4332bccc6ad0ea43426a73c45514.gif

注意:本章不会具体讲解每个机器学习算法的具体函数与使用方法。当大家理解了使用scikit-learn模块的流程后,任何的这个模块中的标准的机器学习算法对应的函数都可以被调用函数使用。具体做法,当然是参考帮助文档。

第一步:数据准备

由于每个吃货对“好吃”的定义不同,以及对“是否经常光顾”的要求不同,我们接下来要生成的数据集的规则如下:

1.  行向量代表一家店的5个特征维度,列向量代表商家的特征维度。

2. 一家店只有上述5个特征,每个特征只有1或者0两种选择。

3. 5个特征中,食材新鲜和店内环境为1,且五项合计总分必须大于等于4分才会再次光顾。

生成的数据如下图:

7e88763061f253e9a9397d5dfacee85c.png

因此,主打菜特色等5种特征可以看做是x,是否会光顾是目标y。通过上述的过程就准备好了需要的数据集。

第二步:选择模型

模型选择不是一成不变的,本质是根据任务选择模型。由于我们是从已知(吃货经验)推未知(新店是否值得光顾),所以这是二分类问题(是否光顾)。下面将会使用决策树模型讲解机器学习的过程。如果读者不了解还有哪些可供选择的模型,可以到scikit-learn的官网(https://scikit-learn.org/stable/)查看。

这个例子可以从以下角度理解决策树模型:

0b1c7dfa2076571aaf5cfa332b24b047.png

囿于空间有限,这里只画出部分决策过程(完整决策过程后面会详细阐述)。以“老北京涮羊肉”这家店为例,每个节点都是一个特征维度:先主打菜有无特色?再判断食材是否新鲜?食材不新鲜的节点之后的特征无论判断如何,最终结果都为“不光顾”;调料是否有特色?价格是否划算?店内环境如何?这些决策问题上的任何差评都最终导致”不光顾“。

第三步:训练模型

1. 切分训练集、验证集、测试集

准备好的数据集在机器学习中的使用过程如下图所示:首先把原始数据集分成三份:训练集,验证集与测试集。然后,在训练集上训练模型,在验证集上选择最优模型(一般会选择确定模型的某些参数),在测试集上测试得到的模型的性能。

f2e8f3bcb6dc649b213f728249304776.png

常用函数说明

053ee96d39c22ae78c6bb53165285003.png

代码(见chapter6/scripts/learn.py)如下:

from sklearn import tree
from sklearn.model_selection import train_test_split

data = pd.read_excel("https://github.com/xiangyuchang/xiangyuchang.github.io/blob/master/BearData/shops_nm_cleaned.xlsx?raw=true", encoding='utf8')
data.head()

X_train, X_val, y_train, y_val = train_test_split(data.iloc[:, 1:-1], data.iloc[:, -1], test_size=0.3, random_state=0) #划分训练集与验证集
X_val, X_test, y_val, y_test = train_test_split(X_val, y_val, test_size=0.3, random_state=0) #划分验证集与测试集
print('训练集的自变量维度: {}, 因变量维度: {}\n'.format(X_train.shape, y_train.shape))
print('验证集的自变量维度: {}, 因变量维度: {}\n'.format(X_val.shape, y_val.shape))
print('测试集的自变量维度: {}, 因变量维度: {}\n'.format(X_test.shape, y_test.shape))

运行结果如下图:

b477b58a5fbf336d6c897932bc8e762a.png

在上面代码中,我们利用train_test_split()函数把所有数据先切分成训练集和验证集,再从验证集中切分测试集,所以调用了两次train_test_split()。test_size均为0.3,即最终训练集、验证集和测试集的比例是:0.7:0.2:0.1,random_state参数只要设置为固定值即可,这是因为这个函数是“随机”切分,但目前计算机生成的随机数都只是伪随机数,生成的不同随机数对切分结果有轻微影响,所以需要指定随机数种子,只要每次切分的随机种子一样,那么结果就可以忽略这个影响。最终print出结果检查维度是否正确即可。

2. 训练模型

常用函数说明

6f67ccb4d807d99d1d84c0ad98552216.png

代码如下:

# 初始化决策树分类器
clf = tree.DecisionTreeClassifier()
# 训练样本
clf = clf.fit(X_train, y_train)
# 在验证集上计算平均准确率
clf.score(X_val, y_val)
# 预测样本
clf.predict(X_val)

最终结果是1.0,即完全预测准确。scikit-learn的使用非常简单,无论是什么模型,调用函数也是4步走:

1.模型初始化。针对模型各种参数的调整都是在这一步。

2.调用fit()函数训练样本。每次调整完后都需要重新训练样本。

3.调用score()在验证集或者测试集上计算平均准确率。

4.输出验证集或测试集的预测结果。

这一步不是必须的,但是有时往往会由于各种原因而导致模型训练出现过拟合或者欠拟合,所以输出结果以查看模型结果是否可信。

以上步骤即是调用完整模型需要的接口,scikit-learn为每个模型都继承了几乎一样的接口函数,使用起来非常方便。▼往期精彩回顾▼初步搭建数据科学工作环境

Conda的使用

Spyder入门

Jupyter入门

Markdown

简单读写数据

数据类型

数据结构

控制流

函数与模块

Numpy

pandas1

pandas2

pandas3

pandas4

绘图模块1

绘图模块2

绘图模块3

绘图模块4

统计建模1

统计建模2

统计建模3

统计建模4

4c1e389e0b2d0ed00610722a663ce0ef.png

b0d3cc8ef91d8d595dbdbe96e773dc9e.png

3f9db92fb654731566b93a3167210e59.gif下载本文数据请点击!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值