Go最新一文读懂机器学习分类全流程_平衡数据集,2024年最新被怼到绝望的我

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上Go语言开发知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

如果你需要这些资料,可以戳这里获取

inplace=False)#按照数值的大小进行排序
return ingredient_df#返回处理并排序后的结果



        现在,我们调用create\_ingredient\_df()函数来了解泰国美食中,最受欢迎的十大食材。输入以下代码:






thai_ingredient_df = create_ingredient_df(thai_df)
thai_ingredient_df.head(10).plot.barh()





        查看泰国美食中十大最受欢迎的食材:



![016773948d374a64b73075572a82738c.png](https://img-blog.csdnimg.cn/016773948d374a64b73075572a82738c.png)​



        我们可以看到,第一名的食材是garlic(大蒜),第十名则是chicken(鸡肉)。


        对中国数据执行同样的操作:






chinese_ingredient_df = create_ingredient_df(chinese_df)
chinese_ingredient_df.head(10).plot.barh()





        结果如下,中国美食食材中,最受欢迎的是soy\_sauce(酱油),第十名是cayenne(红辣椒):



![4d606c93c827479787918d483fd9aca9.png](https://img-blog.csdnimg.cn/4d606c93c827479787918d483fd9aca9.png)​



        同理,我们也可以输出其他国家的美食食材,这里就不水文了。大家可自行尝试。


        现在,我们需要使用drop()函数删除不同美食间造成混淆的最常见成分以突出各国食材的特色,每个国家的人都喜欢米饭、大蒜和生姜。(可自行可视化查看),我们输入以下代码将其删去。





feature_df= df.drop([‘cuisine’,‘Unnamed: 0’,‘rice’,‘garlic’,‘ginger’], axis=1)#删去最常见的这几列以平衡不同国家之间的混淆
labels_df = df.cuisine




### 4.平衡数据集


        现在我们已经清理了数据,因为不同国家的样本数量差异较大,我们需要使用SMOTE(“合成少数过度采样技术”)来平衡它。


[SMOTE介绍]( )


#### ①样本插值采样


        调用**SMOTE**对象的 **fit\_resample()**函数来插值重采样生成新样本。输入以下代码:





oversample = SMOTE()
transformed_feature_df, transformed_label_df = oversample.fit_resample(feature_df, labels_df)
print(f’new label count: {transformed_label_df.value_counts()}‘)
print(f’old label count: {df.cuisine.value_counts()}’)




        查看新样本与旧样本的数据量差异:



![53fd56e6e4514e8db52bce861f874eeb.png](https://img-blog.csdnimg.cn/53fd56e6e4514e8db52bce861f874eeb.png)​



        我们可以看到,新样本不同类别标签下的样本数量都在799,它是以旧样本中最大样本量标签为基础构建的,而旧样本则参差不齐,分布不均匀。


        数据质量很好,干净、平衡!🧸🧸


        数据预处理的最后一步是将预处理后的数据导出以后直接调用。输入以下代码:





transformed_df.to_csv(“cleaned_cuisines.csv”)#保存至新文件方便下一次直接调用




## 


## 三、分类器选择


        现在,数据已经经过预处理,我们可以构建分类模型了!


        但是选择什么模型好呢?


        Scikit-learn中的分类算法在监督学习下,在该类别中,我们将找到许多分类方法。这种多样性一见钟情就相当令人眼花缭乱。以下方法都包含分类技术:



> 
> 线性模型
> 
> 
> 支持向量机
> 
> 
> 随机梯度下降
> 
> 
> 最近邻
> 
> 
> 高斯过程
> 
> 
> 决策树
> 
> 
> 集成学习(随机森林)
> 
> 
> 多类和多输出算法(多类和多标签分类、多类-多输出分类)
> 
> 
> 


        使用什么分类器?


        通常,同时运行几个分类模型,最终找到精度最高的方法很常用。Scikit-learn提供了对所创建数据集的并列比较,比较了下面模型的结果。



> 
> KNeighbors,SVC,GaussianProcessClassifier,DecisionTreeClassifier,RandomForestClassifier,MLPClassifier,AdaBoostClassifier,GaussianNB和QuadraticDiscrinationAnalysis
> 
> 
> 


        下图显示了这些模型可视化的结果:


![ea2a88fe5d1b4a7a99c7b9ae0ffcee17.png](https://img-blog.csdnimg.cn/ea2a88fe5d1b4a7a99c7b9ae0ffcee17.png)


        这种方法在数据集样本较少时可以使用,但随着样本数量的增多,这对计算的负担将会越来越大。我们先不考虑这种方法。请继续向下看😀。


 


## 四、逻辑回归模型构建


        在[前文]( )中,我们已经对数据进行了预处理,方便起见,我们在后续文章中直接调用经过预处理的 **cleaned\_cuisines.csv** 文件。


        我们在之前的逻辑回归文章中,有学到逻辑回归的基本原理与构建流程,这里我们可以尝试使用逻辑回归来解决问题。


### 1.数据导入及查看


        导入第三方库并加载经过预处理的数据cleaned\_cuisines.csv。输入以下代码:





from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split, cross_val_score
from sklearn.metrics import accuracy_score,precision_score,confusion_matrix,classification_report, precision_recall_curve
from sklearn.svm import SVC
import numpy as np
import pandas as pd
cuisines_df = pd.read_csv(“cleaned_cuisines.csv”)
print(cuisines_df.info())
cuisines_df.head()




         数据如下图所示:



![965d7868479f42289347eee320ecd678.png](https://img-blog.csdnimg.cn/965d7868479f42289347eee320ecd678.png)​



### 2.可训练特征与预测标签选择及数据集划分


        以美食数据集的所属国家列为预测标签Y,食材为可训练特征构建数据集。并以7:3的比例划分训练集与测试集。输入以下代码:





cuisines_label_df = cuisines_df[‘cuisine’] #以cuisine列为预测标签
cuisines_feature_df = cuisines_df.drop([‘Unnamed: 0’, ‘cuisine’], axis=1) #删去无用的列,取食材列为可训练特征
X_train, X_test, Y_train, Y_test = train_test_split(cuisines_feature_df, cuisines_label_df, test_size=0.3)#以7:3比例划分训练集与测试集




### 3.构建逻辑回归模型及精度评价


        使用划分好的数据集进行逻辑回归模型构建,打印出模型的精度评价表;测试模型的预测效果。输入以下代码:





lr = LogisticRegression(multi_class=‘ovr’,solver=‘liblinear’)
model = lr.fit(X_train, np.ravel(Y_train))

accuracy = model.score(X_test, Y_test)
print (“Accuracy is {}”.format(accuracy))
Y_pred = model.predict(X_test)
print(classification_report(Y_test,Y_pred))




         输出结果为ACC系数为:79.1%


        通过打印出该模型的精度评价表我们可以获得更多的模型信息:



![cde6a3492cd543a5b9a29c82621a889b.png](https://img-blog.csdnimg.cn/cde6a3492cd543a5b9a29c82621a889b.png)​



### 4.模型测试


        测试模型并查看模型在测试集上将样本分类为不同类别的概率:





print(f’ingredients: {X_test.iloc[50][X_test.iloc[50]!=0].keys()}‘)
print(f’cuisine: {Y_test.iloc[50]}’)
test= X_test.iloc[50].values.reshape(-1, 1).T
proba = model.predict_proba(test)
classes = model.classes_
resultdf = pd.DataFrame(data=proba, columns=classes)
topPrediction = resultdf.T.sort_values(by=[0], ascending = [False])
topPrediction.head()




        输出结果为:



![7472a5308fd0484ea4192b3333cdfbd8.png](https://img-blog.csdnimg.cn/7472a5308fd0484ea4192b3333cdfbd8.png)​



        可以看到对于测试集上的某个样本,其预测为日本菜的概率为91%。


 


## 五、更多分类模型


         在前文中,我们已经构建了逻辑回归模型,那么可以使用其他模型吗,怎么选择呢?


        在开始选择分类器之前,我要向各位读者推荐一个机器学习神器----[分类地图]( )。


        Scikit-learn提供了一个机器学习分类器选择的地图,它可以进一步帮助使用者缩小分类器的选择范围,如下图:



![cf885a147f834f6d8ff96dc9f8077db1.png](https://img-blog.csdnimg.cn/cf885a147f834f6d8ff96dc9f8077db1.png)​



        一旦我们对数据有了一定的了解,此地图将极大的节省我们的试错成本,因为我们可以沿着其路径“行走”来选择需要的模型(**看着图走**):



> 
> 0 我们有大于50个样本
> 
> 
> 1 我们想要预测一个类别
> 
> 
> 2 我们标记了数据
> 
> 
> 3 我们的样本少于100K
> 
> 
> 4 我们可以选择线性SVC
> 
> 
> 5 如果这不起作用,因为我们有数字数据
> 
> 
> 6 我们可以尝试 KNeighbors Classifier
> 
> 
> 7 如果这不起作用,请尝试 SVC 和 集成分类器(诸如随机森林)
> 
> 
> 


        这是一条非常有用的工具,对机器学习初学者很友好。


### 1.第三方库导入


        按照这条路径,我们首先需要导入多分类器需要的第三方库:





from sklearn.neighbors import KNeighborsClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC
from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier
from sklearn.model_selection import train_test_split, cross_val_score
from sklearn.metrics import accuracy_score,precision_score,confusion_matrix,classification_report, precision_recall_curve
import numpy as np





> 
> **数据和训练样本我们继续使用之前划分好的数据集。**
> 
> 
> 


### 2.测试不同分类器


#### ①线性SVC分类器


        支持向量聚类 (SVC) 是支持向量机机器学习技术系列的子集。在此方法中,你可以选择一个“核函数”来决定如何对标签进行聚类。“C”参数是指“正则化”,它调节参数的影响。内核有多个选择;在这里,我们将其设置为“线性”核函数。概率默认为“假”;在这里,我们将其设置为“true”以收集概率估计值。我们将随机状态设置为“0”,以随机排列数据以获得概率。


        首先我们需要**创建一个分类器列表,用于存储之后新增的机器学习分类器**。先放入一个线性SVC分类器。





C = 10 #正则化参数设置为10

Create different classifiers.

classifiers = {
‘Linear SVC’: SVC(kernel=‘linear’, C=C, probability=True,random_state=0)
}#创建分类器列表




         使用线性SVC训练模型并打印精度报告:





n_classifiers = len(classifiers)

for index, (name, classifier) in enumerate(classifiers.items()):
classifier.fit(X_train, np.ravel(y_train))

y_pred = classifier.predict(X_test)
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy (train) for %s: %0.1f%% " % (name, accuracy * 100))
print(classification_report(y_test,y_pred))




![7f1a72d544a442f08e15152e2b714d34.png](https://img-blog.csdnimg.cn/7f1a72d544a442f08e15152e2b714d34.png)​



        查看线性SVC的精度报告,效果还不错,准确率达到了78.6%。 


#### ②K-近邻分类器


        K-Neighbors是机器学习常用的方法,可用于监督学习与无监督学习。在此方法中,需要预先创建部分点数,并在这些点周围收集数据,以预测数据的广义标签。


        我们在**之前创建的分类器列表**中加入KNN分类器代码。运行以后再次查看精度:





‘KNN classifier’: KNeighborsClassifier©,





![39b419b31fb64cce91b49febeadbf590.png](https://img-blog.csdnimg.cn/39b419b31fb64cce91b49febeadbf590.png)​



        🤨精度有所下降。。


#### ③SVM分类器


        SVM分类器是用于分类和回归任务的支持向量机机器学习方法系列的子集。SVM“将训练样本点映射到高维空间中”,最大化两个类别之间的距离。后续的预测数据被映射到此空间中,来预测其类别。


        我们在K-近邻算法后加入支持向量分类器:





‘SVC’: SVC(),




        再次运行,查看SVM支持向量模型结果。




![b279042fc5e44877901e8755b07cdcb5.png](https://img-blog.csdnimg.cn/b279042fc5e44877901e8755b07cdcb5.png)


​       **🥇fantastic!**精度上升到了82.4%。




        继续测试其他模型...


#### ④集成分类器


        之前的测试精度相当不错。让我们尝试使用集成学习模型,特别是Random Forest和AdaBoost吗,在模型中列表加入下面代码后运行:





‘RFST’: RandomForestClassifier(n_estimators=100),
‘ADA’: AdaBoostClassifier(n_estimators=100)






![ec78e70fc28d40b99e27a61e34cfe1b3.png](https://img-blog.csdnimg.cn/ec78e70fc28d40b99e27a61e34cfe1b3.png)


​        很不戳!🎈🎈**RFST随机森林的精度达到了83.4%**,AdaBoost似乎不太好,不过这不重要。




        集成学习方法结合了几个基本分类器的预测,以提高模型的质量。在我们的示例中,我们使用了 **Random Trees** 和 **AdaBoost**。



> 
> 0 随机森林是一种平均方法,它构建了一个由“决策树”组成的“森林”,注入了随机性,以避免过度拟合。n\_estimators参数设置为树的数量。
> 
> 
> 1 AdaBoost 将分类器拟合到数据集,然后将该分类器的副本拟合到同一数据集。它侧重于错误分类项目的权重,并调整下一个分类器要更正的拟合度。
> 
> 
> 


        这些技术中的每一种都有大量超参数可以调整。**读者可以自行研究每个参数的默认参数,并尝试调整这些参数观察其对模型质量的影响**。


 


## 六、模型发布为Web应用


        我在模型部署的文章中有讲解**使用Flask框架和pickle库打包模型及应用构建的全流程**,虽然之前按用的时回归模型。但回归模型与分类模型部署的流程一样:



> 
> 训练模型>模型打包>应用配置>模型部署>运行测试
> 
> 
> 


### 1.模型打包


        方便起见,我们我们使用刚刚训练好的逻辑回归分类模型,将其使用Pickle库将其打包为 美食预测.pkl文件,以便后续的使用。输入以下代码:





import pickle
model_filename = ‘cuisines.pkl’
pickle.dump(model, open(model_filename,‘wb’))
model = pickle.load(open(‘cuisines.pkl’,‘rb’))
print(model.predict([range(1,381)]))




        输出的结果为 Indian🤣,(**这里参数其实有错,因为输入特征有380个,不可能一个一个输入...我自己就编了点,还是三哥吃的杂。项目实践中我们对大量样本常常使用批处理,只有小样本才这样直接输入**)。




![8bbd56890f214fc8812d212812fda0f5.png](https://img-blog.csdnimg.cn/8bbd56890f214fc8812d212812fda0f5.png)


​




        可以看到文件夹下已经生成了打包好的模型。😊


### 2.配置Flask应用


        详细配置请看:[机器学习系列8 基于Python构建Web应用以使用机器学习模型]( )


        我们这里只配置关键文件index.html和app.py,其他文件配置请看此文。


#### ①index.html





🍕亚洲美食预测器🍖
  <div class="box">

    <p>根据拥有的食材来预测UFO出现的国家!</p>
    <p>包含的食材填1,不包含的填0</p>
    <form action="{{ url_for('predict')}}" method="post">
      <input type="number" name="cayenne" placeholder="cayenne" required="required" min="0" max="60" />
      <input type="number" name="onion" placeholder="onion" required="required" />
      <input type="number" name="pear" placeholder="pear" required="required" />
	  <input type="number" name="radish" placeholder="radish" required="required" />
	  <input type="number" name="sake" placeholder="sake" required="required" />
	  <input type="number" name="scallion" placeholder="scallion" required="required" />
	  <input type="number" name="sesame_oil" placeholder="sesame_oil" required="required" />
	  <input type="number" name="vegetable" placeholder="vegetable" required="required" />
	  <input type="number" name="vegetable_oil" placeholder="vegetable_oil" required="required" />
      <button type="submit" class="btn">预测</button>
    </form>

    <p>{{ prediction_text }}</p>

  </div>

</div>
```
②app.py
import numpy as np
from flask import Flask, request, render_template
import pickle

app = Flask(__name__)#初始化APP

model = pickle.load(open("cuisines.pkl", "rb"))#加载模型


@app.route("/")#装饰器
def home():
    return render_template("index.html")#先引入index.html,同时根据后面传入的参数,对html进行修改渲染。


@app.route("/predict", methods=["POST"])
def predict():

    int_features = [int(x) for x in request.form.values()]#存储用户输入的参数
    int_features = int_features+list(range(1,372)) #凑数
    final_features = [np.array(int_features)]#将用户输入的值转化为一个数组
    prediction = model.predict(final_features)#输入模型进行预测
    output = prediction[0]#将预测值传入output


    return render_template(
        "index.html", prediction_text="Likely country: {}".format(output)#将预测值返回到Web界面,使我们看到
    )


if __name__ == "__main__":
    app.run(debug=True)#调试模式下运行文件,实时反应结果。仅限测试使用,生产模式下不要使用

软件结构如下图:

2f37575f9e264ec184320c4d364087b2.png

3.应用运行及测试

在命令行cd切换路径至当前目录下,输入以下代码,将出现的链接复制到浏览器打开:

python app.py

708fa0f4deda4fdfad5279c9f754e12a.png​​

按要求输入特征,代码运行成功,输出印度:

b1b6f6e665924a6a97dcf9ae8d4777c2.png

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以添加戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

f37575f9e264ec184320c4d364087b2.png)

3.应用运行及测试

在命令行cd切换路径至当前目录下,输入以下代码,将出现的链接复制到浏览器打开:

python app.py

708fa0f4deda4fdfad5279c9f754e12a.png​​

按要求输入特征,代码运行成功,输出印度:

b1b6f6e665924a6a97dcf9ae8d4777c2.png

[外链图片转存中…(img-du3DuGp5-1715520319033)]
[外链图片转存中…(img-hfIsshH1-1715520319033)]

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以添加戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值