MachineLearning
li4850729
这个作者很懒,什么都没留下…
展开
-
为何需要核函数
【转】:http://www.blogjava.net/zhenandaci/archive/2009/03/06/258288.html注:评论也是值得看的生存?还是毁灭?——哈姆雷特 可分?还是不可分?——支持向量机 之前一直在讨论的线性分类器,器如其名(汗,这是什么说法啊),只能对线性可分的样本做处理。如果提供的样本线性不可分,结果很简单,线性分类器的求解转载 2015-09-01 22:29:34 · 1189 阅读 · 0 评论 -
cnblogs_tornadomeet博客导航
【转】:http://www.cnblogs.com/tornadomeet/archive/2012/06/24/2560261.htmlDeep Learning学习笔记:Deep learning:五十一(CNN的反向求导及练习)Deep learning:五十(Deconvolution Network简单理解)Deep learning转载 2015-08-24 17:19:58 · 744 阅读 · 0 评论 -
信息度量与KL距离
【转】:http://m.blog.csdn.net/blog/ice110956/17120461信息度量信息论中,把信息大小解释为其不确定度。如果一个事件必然发生,那么他没有不确定度,也就不包含信息。即信息=不确定度。借用数学之美中的一个例子:马上要举行世界杯赛了。大家都很关心谁会是冠军。假如我错过了看世界杯,赛后我问一个知道比赛结果的观众“哪支转载 2015-10-26 15:29:46 · 3433 阅读 · 0 评论 -
数据的归一化
【转】:http://www.cnblogs.com/LBSer/p/4440590.html机器学习模型被互联网行业广泛应用,如排序(参见:排序学习实践)、推荐、反作弊、定位(参见:基于朴素贝叶斯的定位算法)等。一般做机器学习应用的时候大部分时间是花费在特征处理上,其中很关键的一步就是对特征数据进行归一化,为什么要归一化呢?很多同学并未搞清楚,维基百科给出的解释:1)归一化后加快了梯转载 2015-10-27 15:35:33 · 4096 阅读 · 1 评论 -
resources dependent
http://www.quora.com/How-can-I-become-a-data-scientist?redirected_qid=59455原创 2015-08-24 17:56:51 · 469 阅读 · 0 评论 -
斯坦福大学机器学习第七课“正则化(Regularization)”
【转自】:http://52opencourse.com/133/coursera%E5%85%AC%E5%BC%80%E8%AF%BE%E7%AC%94%E8%AE%B0-%E6%96%AF%E5%9D%A6%E7%A6%8F%E5%A4%A7%E5%AD%A6%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%AC%AC%E4%B8%83%E8%AF%BE-%E6%转载 2015-11-02 10:54:28 · 6297 阅读 · 0 评论