编辑 | JZ
专栏 | 九章算法
常用Python库
机器学习:
|Sklearn:可使用该网页上的搜索功能获取相关算法的具体介绍及demo.
绘图:
|seaborn gallery
|matplotlib gallery
数据处理
数据可视化:
|可视化方法对机器学习至关重要(系列)之一
|A visual introduction to machine learning
缺失值处理:
|kaggle数据挖掘竞赛初步--Titanic<原始数据分析&缺失值处理>
|wiki-缺失数据
|机器学习中如何处理缺失数据?
数据变换:
|kaggle数据挖掘竞赛初步--Titanic<数据变换>
|为什么一些机器学习模型需要对数据进行归一化?
|再谈机器学习中的归一化方法(Normalization Method)
特征选择:
|机器学习中特征选择概述
|机器学习中的特征——特征选择的方法以及注意点
|【斯坦福---机器学习】复习笔记之特征选择
|干货:结合Scikit-learn介绍几种常用的特征选择方法
|Scikit-learn Feature selection
模型选择:
Kaggle 上获得较好成绩的模型往往都是基于树的有:
Gradient Boosting
|模型组合之 Boosting 与 Gradient Boosting
|Gradient Boosting算法简介
|Gradient boosting
|GBDT(Gradient Boosting Decision Tree) 没有实现只有原理
Random Forest
|RandomForest随机森林总结
|Sklearn-RandomForestClassifier
|机器学习中的算法——决策树模型组合之随机森林与GBDT
|随机森林入门介绍
交叉验证:
|留一法交叉验证和普通交叉验证有什么区别?
|交叉验证(Cross Validation)方法思想简介
|交叉验证
集成学习:
常用的方法有:Bagging、Boosting、Bootstrap、Stacking
|bootstrap, boosting, bagging 几种方法的联系
|总结:Bootstrap(自助法),Bagging,Boosting(提升)
|数据比赛大杀器----模型融合(stacking&blending)
|Introduction to Ensembling/Stacking in Python
知乎 Live 预告 - 初学者如何准备机器学习竞赛?
Live 主讲人
Mark Chen
毕业于北京大学信息科学与技术学院。就职于 Google,斩获 offer 包括 Baidu, 网易, Hulu, Google, Microsoft, 小米等。
仲宇
北京大学计算机本硕,先后就职于百度、小米,机器学习竞赛爱好者,多次参加天池、京东、滴滴、 Kaggle 等各大企业机器学习竞赛,具有丰富的实战机器学习研发经验。
Live 主题:初学者如何准备机器学习竞赛?
- 什么是机器学习竞赛?
- Kaggle、天池等机器学习竞赛流程是怎样的?
- 各大企业机器学习竞赛分别有什么特色?
- 为什么鼓励新手参加机器学习竞赛?
- 如何准备机器学习竞赛?
- 机器学习竞赛经典题目讲解
此次 Live 将在北京时间3月18日周日晚上8点举行,报名请戳:初学者如何准备机器学习竞赛?