![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Léon's Blog
一只野生程序猿
展开
-
[python]机器学习路线图
为了理解和应用机器学习技术,你需要学习 Python 或者 R。这两者都是与 C、Java、PHP 相类似的编程语言。但是,因为 Python 与 R 都比较年轻,而且更加“远离”CPU,所以它们显得简单一些。相对于R 只用于处理数据,使用例如机器学习、统计算法和漂亮的绘图分析数据, Pthon 的优势在于它适用于许多其他的问题。因为 Python 拥有更广阔的分布(使用 Jango 托管网站,自转载 2016-08-24 22:31:24 · 6656 阅读 · 1 评论 -
[机器学习]信息熵、信息增益的概念
信息熵信息熵 表示 随机变量 的 不确定性。不确定性越大(即所谓的信息量越大),信息熵越大。信息可不可以量化? 首先从直觉上来讲,是可以的。不然我们怎么觉得有的人废话特别多,却没什么信息量;而有的人一语中的,一句话就传达了很大的信息量。为什么有的信息大,有的信息小? 有些事情本来不是很确定:例如 明天股票是涨是跌; 1)“明天NBA决赛开始了“,和“股票跌涨“没关系,所以“明天N转载 2016-11-25 21:36:53 · 1782 阅读 · 1 评论 -
经典的机器学习方面源代码库
编程语言:搞实验个人认为当然matlab最灵活了(但是正版很贵),但是更为前途的是python(numpy+scipy+matplotlib)和C/C++,这样组合既可搞研究,也可搞商业开发,易用性不比matlab差,功能组合更为强大,个人认为,当然R和java也不错.1.机器学习开源软件网(收录了各种机器学习的各种编程语言学术与商业的开源软件)http://mlo转载 2017-01-07 20:51:37 · 382 阅读 · 0 评论 -
[集成学习] bagging和boosting
Bagging ( Boostrap Aggregating)对样本再采样(Boostrap),对每一重采样的子样本训练一个模型,最后取平均,所以是降低模型的variance。Bagging比如Random Forest这种先天并行的算法都有这个效果。Boosting则是迭代算法,每一次迭代都根据上一次迭代的预测结果对样本进行加权,所以随着迭代的不断进行,误差会越来越小,所以模转载 2017-08-04 14:34:20 · 231 阅读 · 0 评论