kaggle
看不见我呀
坚持就是胜利
展开
-
kaggle入门之二
https://blog.csdn.net/han_xiaoyang/article/details/49797143 作者: 寒小阳 时间:2015年11月。 出处:http://blog.csdn.net/han_xiaoyang/article/details/49797143 声明:版权所有,转载请注明出处,谢谢。 1.引言 先说一句,年末双十一什么的一来,真是非(mang)常...转载 2018-07-25 00:05:16 · 483 阅读 · 0 评论 -
kaggle入门之一
https://blog.csdn.net/u012162613/article/details/41929171 近期带娃搞专利,没啥事,我想开始刷刷kaggle 大数据竞赛平台——Kaggle 入门篇 这篇文章适合那些刚接触Kaggle、想尽快熟悉Kaggle并且独立完成一个竞赛项目的网友,对于已经在Kaggle上参赛过的网友来说,大可不必耗费时间阅读本文。本文分为两部分介绍...转载 2018-07-24 23:38:02 · 331 阅读 · 0 评论 -
项目一总结
1.熟悉数据 这儿尝试用pandas 2.理解数据 此处主要列举数据的一些信息,有效数据、均值、最大值、最小值等 注意:有些数据有时效性,数据收集的是2010年的房子价格,如果你预测2011,一切没有问题,但是今年是2018年,有点太旧了,你需要增加新的数据了。 3.挑选特征 针对大量的数据,如何挑选特征,也是一大难题。目前最简单的方法是靠直觉。 学会如何提取数据 4.建立模型 ...原创 2018-08-01 22:41:35 · 177 阅读 · 0 评论 -
kaggle——MNIST之一
ml的入门教程,使用svm来做mnist的分类: 细节:直接将image拉成一个向量,然后直接采用svm分类,结果 10%的准确率,和随机猜测ch差不多; 改进版:将grey的image转换为二值化图,即为0或1图,然后相同的的方法训练,准确率飙升至88%; 其他人的版本:将grey归一化到【0,1】,其准确率ch差不多也是88%; 关于此的分析: So instead of settin...原创 2018-08-06 22:03:12 · 695 阅读 · 0 评论 -
kaggle学习二——丢失数据的处理
1.直接丢弃 当然一般效果不好 2.采用插值的方式处理 均值,中值等 sklearn.impute 3.插值的加强版 (说实话,没有太看懂) Imputation is the standard approach, and it usually works well. However, imputed values may by systematically above or be...原创 2018-08-02 11:38:24 · 606 阅读 · 0 评论 -
kaggle学习三——强大的算法
说的时XGBoost 对于数值型预测类型。好像很强大。其属于GBRT的优化版,还不是很懂,慢慢补充吧原创 2018-08-03 14:40:49 · 603 阅读 · 0 评论 -
kaggle学习之三——分析属性
1.partial dependence plot这个主要用来分析特征和目标之间的关系 2.pipelines:用这个,可以让你的代码看起来很优雅。 Take your modeling code and convert it to use pipelines. For now, you'll need to do one-hot encoding of categorical variabl...原创 2018-08-03 14:41:39 · 354 阅读 · 0 评论 -
kaggle数字识别之二
步骤4中应该还需要验证错误的图像,大致瞅一下,如果人类也容易出错,那就不管了原创 2018-08-17 13:39:43 · 211 阅读 · 0 评论