机器学习
月半rai
这个作者很懒,什么都没留下…
展开
-
线性SVM与非线性SVM
所谓线性SVM与非线性SVM是指其选用的核类型。 用于分类问题时,SVM可供选择的参数并不多,惩罚参数C,核函数及其参数选择。对于一个应用,是选择线性核,还是多项式核,还是高斯核?还是有一些规则的。 什么时候选择线性的SVM核: 预测函数简单f(x) = w’*x+b,分类速度快。对于类别多的问题,分类速度的确需要考虑到,线性分类器的w可以事先计算出来,而非线性分类...原创 2017-12-10 10:57:18 · 6278 阅读 · 1 评论 -
条件随机场CRF
http://blog.csdn.net/xueyingxue001/article/details/51498968 声明: 1,本篇为个人对《2012.李航.统计学习方法.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。 2,由于本人在学习初始时有很多数学知识都已忘记,所以为了弄懂其中的内容查阅了很多资料,所以里面应该会有引用其...转载 2017-12-16 19:37:27 · 436 阅读 · 0 评论 -
弱监督学习
通常来说,弱监督可以分为三类。第一类是不完全监督(incomplete supervision),即,只有训练集的一个(通常很小的)子集是有标签的,其他数据则没有标签。这种情况发生在各类任务中。例如,在图像分类任务中,真值标签由人类标注者给出的。从互联网上获取巨量图片很容易,然而考虑到标记的人工成本,只有一个小子集的图像能够被标注。第二类是不确切监督(inexact supervision)...转载 2018-12-13 21:51:43 · 2303 阅读 · 0 评论 -
常见的评价指标
一、分类1、精确率、精度(Precision)精确率(precision)定义为:它表示的是预测为正的样本中有多少是对的。2、召回率(Recall) R = TP/(TP+FN) 它表示的是样本中的正例有多少被预测正确了。3、混淆矩阵(又叫做误差矩阵) 4、kappa系数用于一致性检验,也可以用于衡量分类精度。越接近于1越好。 ...原创 2018-12-01 16:42:17 · 2471 阅读 · 0 评论 -
L1惩罚项和L2惩罚项
x即为参数。L2正则化参数从公式5可以看到,λλ越大,θjθj衰减得越快。另一个理解可以参考图2,λλ越大,L2圆的半径越小,最后求得代价函数最值时各参数也会变得很小。...原创 2018-12-10 22:48:56 · 12758 阅读 · 1 评论 -
独立同分布
在概率论与统计学中,独立同分布(英语:Independent and identically distributed,缩写为IID)是指一组随机变量中每个变量的概率分布都相同,且这些随机变量互相独立。...原创 2018-12-31 12:42:05 · 2711 阅读 · 0 评论 -
支持向量机(SVM)
支持向量机通俗导论(理解SVM的三层境界) 作者:July、pluskid ;致谢:白石、JerryLead出处:结构之法算法之道blog。 前言 动笔写这个支持向量机(support vector machine)是费了不少劲和困难的,原因很简单,一者这个东西本身就并不好懂,要深入学习和研究下去需花费不少时间和精力,二者这个东西也不好讲清楚,尽管网上已...转载 2017-11-26 13:44:36 · 613 阅读 · 0 评论 -
决策树算法(有监督学习算法)
一、决策树基础 决策树(Decision Tree)算法是根据数据的属性采用树状结构建立决策模型,这个模型可以高效的对未知的数据进行分类。决策树模型常常用来解决分类和回归问题。如今决策树是一种简单但是广泛使用的分类器。常见的算法包括 CART (Classification And Regression Tree)、ID3、C4.5、随机森林 (Random Forest) 等。转载 2017-11-24 11:26:19 · 8112 阅读 · 1 评论 -
scikit-learn随机森林调参小结
在Bagging与随机森林算法原理小结中,我们对随机森林(Random Forest, 以下简称RF)的原理做了总结。本文就从实践的角度对RF做一个总结。重点讲述scikit-learn中RF的调参注意事项,以及和GBDT调参的异同点。1. scikit-learn随机森林类库概述 在scikit-learn中,RF的分类类是RandomForestClassifier...转载 2019-03-05 16:44:29 · 274 阅读 · 0 评论