机器学习必备资源-如何开始机器学习竞赛

编辑 | JZ
专栏 | 九章算法

常用Python库

科学计算:
|pandas
|numpy


机器学习:
|Sklearn:可使用该网页上的搜索功能获取相关算法的具体介绍及demo.


绘图:
|seaborn gallery
|matplotlib gallery


数据处理

数据可视化:
|可视化方法对机器学习至关重要(系列)之一
|A visual introduction to machine learning


缺失值处理:
|kaggle数据挖掘竞赛初步--Titanic<原始数据分析&缺失值处理>
|wiki-缺失数据
|机器学习中如何处理缺失数据?


数据变换:
|kaggle数据挖掘竞赛初步--Titanic<数据变换>
|为什么一些机器学习模型需要对数据进行归一化?
|再谈机器学习中的归一化方法(Normalization Method)


特征选择:
|机器学习中特征选择概述
|机器学习中的特征——特征选择的方法以及注意点
|【斯坦福---机器学习】复习笔记之特征选择
|干货:结合Scikit-learn介绍几种常用的特征选择方法
|Scikit-learn Feature selection


模型选择:
Kaggle 上获得较好成绩的模型往往都是基于树的有:


Gradient Boosting
|模型组合之 Boosting 与 Gradient Boosting
|Gradient Boosting算法简介
|Gradient boosting
|GBDT(Gradient Boosting Decision Tree) 没有实现只有原理


Random Forest
|RandomForest随机森林总结
|Sklearn-RandomForestClassifier
|机器学习中的算法——决策树模型组合之随机森林与GBDT
|随机森林入门介绍


交叉验证:
|留一法交叉验证和普通交叉验证有什么区别?
|交叉验证(Cross Validation)方法思想简介
|交叉验证


集成学习:

|集成学习基础通俗入门

|集成学习原理小结

|集成学习:机器学习兵器谱的“屠龙刀”


常用的方法有:Bagging、Boosting、Bootstrap、Stacking

|【机器学习】模型融合方法概述

|bootstrap, boosting, bagging 几种方法的联系

|Boosting算法简介

|总结:Bootstrap(自助法),Bagging,Boosting(提升)

|集成学习——bagging and boosting

|数据比赛大杀器----模型融合(stacking&blending)

|kaggle-ensembling-guide

|kaggle比赛集成指南

|Kaggle机器学习之模型融合(stacking)心得

|Introduction to Ensembling/Stacking in Python


知乎 Live 预告 - 初学者如何准备机器学习竞赛?

Live 主讲人


Mark Chen

毕业于北京大学信息科学与技术学院。就职于 Google,斩获 offer 包括 Baidu, 网易, Hulu, Google, Microsoft, 小米等。


仲宇

北京大学计算机本硕,先后就职于百度、小米,机器学习竞赛爱好者,多次参加天池、京东、滴滴、 Kaggle 等各大企业机器学习竞赛,具有丰富的实战机器学习研发经验。


Live 主题:初学者如何准备机器学习竞赛?

  • 什么是机器学习竞赛?
  • Kaggle、天池等机器学习竞赛流程是怎样的?
  • 各大企业机器学习竞赛分别有什么特色?
  • 为什么鼓励新手参加机器学习竞赛?
  • 如何准备机器学习竞赛?
  • 机器学习竞赛经典题目讲解

此次 Live 将在北京时间3月18日周日晚上8点举行,报名请戳:初学者如何准备机器学习竞赛?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值