大数据哈哈入门
文章平均质量分 68
鞋带散了的木木
不懒的人,运气都不会太差
展开
-
大数据哈哈入门
这是一个大神wphh写的kaggle入门,过程介绍得比较详细,自己要找时间尝试 一下 大数据竞赛平台——Kaggle 入门篇http://blog.csdn.net/u012162613/article/details/41929171 Kaggle入门——使用scikit-learn解决DigitRecognition问题http://blog.csdn.net/u012162613原创 2015-10-27 19:46:11 · 510 阅读 · 0 评论 -
kNN(k-nearest neighbor)理解与实现
一、理解 kNN三要素:k值选择、距离度量、分类决策规则 流程:计算输入实例与训练集中各实例的距离,选出K个最近邻训练实例点,然后根据这K个点多数类进行分类。 k值选择:k值选得过小意味着用较小的邻域中的训练实例点来进行预测,易出现过拟合;k值过大则相反,易把不太相关的实例点也用来预测,导致出错 距离度量:LpL_p距离等,常用欧氏距离二、实现def classify0(inX,原创 2016-03-26 16:50:55 · 453 阅读 · 0 评论 -
Kaggle 数据挖掘比赛经验分享 (转载)
作者简介 Kaggle 于 2010 年创立,专注数据科学,机器学习竞赛的举办,是全球最大的数据科学社区和数据竞赛平台。笔者从 2013 年开始,陆续参加了多场 Kaggle上面举办的比赛,相继获得了 CrowdFlower 搜索相关性比赛第一名(1326支队伍)和 HomeDepot 商品搜索相关性比赛第三名(2125支队伍),曾在 Kaggle 数据科学家排行榜排名全球第十,国内第一。笔者转载 2017-05-22 15:57:47 · 742 阅读 · 0 评论 -
逻辑回归(Logistic Regression)
一、什么是逻辑回归 机器学习算法三要素:模型、参数、目标函数。 1.模型 设XX是连续随机变量,x\mathbf x服从logistic分布是指其具有下列分布函数和密度函数:F(x)=P(x≤x)=11+e−(x−u)/γF(x) = P(\mathbf x\le x) = \frac{1}{1+e^{-(x-u)/\gamma}}f(x)=F′(x)=e−(x−u)/γγ(1原创 2016-04-24 20:32:05 · 4204 阅读 · 0 评论