【天池、京东算法大赛、Kaggle等机器学习打比赛模板】

本文提供了一个参与机器学习比赛如Kaggle、天池的通用模板,涵盖定义问题、理解数据、数据预处理、评估算法、模型优化和验证模型等步骤。通过描述性统计、可视化和EDA加强数据理解,利用pandas_profiling快速生成数据报告。特征工程和数据清洗是关键,包括处理缺失值、去重、异常值检测和转换。模型评估和调参涉及多种算法的对比和参数优化,集成算法如XGB、LightGBM和AdaBoost用于提升模型性能。
摘要由CSDN通过智能技术生成

引言

机器学习和深度学习一旦入坑,学习知识最快的方式就是多做项目,找一些比赛打,像Kaggle, 阿里的天池等,很多很多的比赛,从实用的角度,然后再哪里不会补哪里。一开始的重点不是要求自己开始做,然后能达到多少分的排名,而是和排名靠前的大佬学习处理数据的技巧和方法,我觉得这才是关键,通过Kaggle的入门-房价预测的比赛还有快手用户活跃度预测:https://vicky.blog.csdn.net/article/details/104884733,我学习到了很多知识,这里先整理一个宏观的比赛模板。这个模板可以适用于数据分析比赛或者项目。
模板如下:
在这里插入图片描述

一、定义问题

1.分析题目

弄明白下面几个问题:

  • 重点是题目要求做什么?
  • 采用什么样的方式?
  • ==最后的评估方式是什么? ==

2.导入

明白了上面的几个问题后,就可以

  • 导入相应的Python模块和包
  • 导入数据集

二、理解数据

加强对数据理解的步骤 , 包括通过描述性统计和通过可视化来观察数据这一步需要花费时间多问几个问题,设定假设条件并调查分析一下,对模型的建立有很大的帮助

1.描述性统计

描述性统计主要是查看数据的一些基本的格式,主要包括下面几个部分:

  • .shape: 查看数据的形状
    • . head(): 查看数据本身
    • .info(): 数据集的简单描述, 总行数,空值或者数据类型等
    • .value_counts(): 分类的时候用的多,查看类别的个数
    • .describe(): 简单的统计性表述,最大值,最小,平均等
    • . corr(method=‘pearson’): 查看列之间的相关性
    • .skew(): 通过分析数据的高斯分布来确认数据的偏离情况

2.可视化数据信息

另一个快速了解数据类型的方式是绘制每个属性的直方图由一系列高度不等的纵向条纹或者线段表示数据的分布情况。 一般用横轴表示数据类型,纵 轴表示分布情况。直方图可以非常直观的展示每个属性的分布情况。通过图标,可以很直观 的看到数据是高斯分布,指数分布还是偏态分布。比如直方图,散点图等等。 seaborn是一个比matplotlib更好用的工具,画出的图像也更加好看。

3.数据EDA(探测性分析,生成数据报告)

这里有一款神奇就是pandas_profiling, 导入这个包,然后调用一个函数就可以直接生成数据的探测性报告,包括上面的描述性统计和可视化信息,相关性等,做比赛节省时间的必备神器。

import pandas_profiling as ppf
ppf.ProfileReport(data)

PS:这一部分也是很重要的,只有采用了正确的可视化方法,才能真正的去理解数据,为后面的相应处理打下基础, 这里分析目标变量,查看目标变量的分布也是首要或者很重要的一个环节

三、数据的准备

预处理数据,让数据更好的展示问题,包括通过删除重复数据,标记错误数据甚至标记错误的输入数据来清洗数据,特征选择,包括移除多余的特征属性和增加新的特征属性,数据转化,对数据尺度调整,或者调整数据的分布, 更好的展示问题

主要包括下面几个部分:

1.数据清洗与转换

对数据进行重新审查和校验的过程,目的在于删除重复信息,纠正存在的错误,并提供数据一致性

数据清洗的难点: 数据清洗一般针对具体应用, 因而难以归纳统一的方法和步骤,但是根据数据不同可以给出相应的数据清理方法:

  1. 解决缺失值: 平均值、最大值、最小值或更为复杂的概率估计代替缺失值. PS: 缺失值的处理,要分数据类型,字符型,整型等不同的类型处理填充的方式不一样

  2. 去重: 相等的记录合并为一条记录(即合并/清除)

  3. 解决错误值:用统计分析方法识别可能的错误值或异常值,如偏差分析、识别不遵守分布或回归方程的值,也可以用简单规则库(常识性规则,业务规则等)检查数据值,或使用不同属性间的约束,外部的数据来检测和清理数据, PS : 这个需要结合着可视化那部分,删除一些重复或者异常的点,把偏斜度大的特征进行boxcox转换成标准的正态

  4. 解决数据的不一致性: 比如数据是类别型(LabelEncoder或者OneHotEncoder)或者次序型

数据清洗的八大场景:

  1. 删除多列
  2. 更改数据类型
  3. 将分类变量转换为数字变量
  4. 检查缺失数据(一般是NAN)
  5. 删除列中的字符串
  6. 删除列中的空格
  7. 用字符串连接两列(带条件)
  8. 转换时间戳(从字符串到日期时间格式)

数据处理方法:

  1. 对数变换(log1p)
  2. 标准缩放(StandardScaler)
  3. 转换数据类型(astype)
  4. 独热编码(OneHotEncoder或者pd.get_dummies)
  5. 标签编码(LabelEncoder)
  6. 修复偏斜特征(boxcox1p)

2.特征工程

这一部分超级重要,需要根据前面分析的特征与特征之间的相关性,特征与目标变量之间的相关性等对特征进行选择,组合,删除。可以基于特征重要性图来选择最相关的特征,或者进行各种组合等。 具体的见我这一篇博客:
掌握了这个之后,数据挖掘竞赛稳拿top10:利用Sklearn库进行特征工程处理:https://vicky.blog.csdn.net/article/details/104986039
这部分处理完之后,分离出训练集和测试集,就可以进行后面的创建模型进行训练和预测了,上面的这几步,才是把生活中的实际数据转换成机器学习可以处理数据的关键, 数据处理的好坏,决定着模型的表现。
在这里插入图片描述

四、评估算法

为了寻找最佳的算法子集,包括:分离出评估数据集,便于验证模型,定义模型评估标准, 用来评估算法模型,抽样审查线性算法和非线性算法,比较算法的准确度

1.分离数据集

这一部分,可以使用随机划分,或者是随机抽样,分层抽样等,sklearn都有相应的库函数进行调用, 分离完训练集和测试集之后,测试集放在一边不用管,拿训练集进行下面的模型评估

2.评估算法

这里给出一个评价模型的板子,一般情况肯定不会是建立一种模型,这里是建立的很多个可以处理相应问题的模型,然后进行筛选, 通过model字典的方式进行

models = {
   }

models['LR'] = LinearRegression()
models['Ridge'] = Ridge()
models['Lasso'] = Lasso(alpha=0.01,max_iter=10000)
models['RF'] = RandomForestRegressor()
models['GBR'] = GradientBoostingRegressor()
models['LinSVR'] = LinearSVR()
models['SG
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值