- 博客(5)
- 资源 (3)
- 收藏
- 关注
原创 交叉验证(Cross validation)总结
一 什么是CV CV,通俗理解就是使用训练数据和测试数据交叉的方式来验证一个(或多个)模型的性能,以此判定算法在数据上的大致性能。 使用CV可以大致估算出模型的准确率;当模型中有超参数(hyperparameter)时,可以使用CV的方法选取这些超参二 为什么需要CV 构建机器学习模型的一个重要环节是评价模型在新数据上的性能。模型过于简
2017-01-23 13:11:21 3102 2
原创 逻辑回归(Logistic Regression)详解
一 什么是逻辑回归 首先,LR虽然名字里有回归,但它并不是解决回归问题,而是解决分类问题的。 另外,有人会问,为线性回归提供阈值来做分类不可以吗? 不可以,因为阈值是无法准确定义,模型是容易被样本数据拉偏的。 之所以LR是个分类问题,却被叫做回归,因为它利用了sigmoid函数。 sigmoid 可以将数据(LR中指输出y)压缩到[0, 1]之间,它经过一个
2017-01-21 10:24:50 3333 1
转载 svm 多分类机制
参考 http://www.cnblogs.com/CheeseZH/p/5265959.htmlSVM本身是一个二值分类器 SVM算法最初是为二值分类问题设计的,当处理多类问题时,就需要构造合适的多类分类器。 目前,构造SVM多类分类器的方法主要有两类 (1)直接法,直接在目标函数上进行修改,将多个分类面的参数求解合并到一个最优化问题中,通过求解该最优化问题
2017-01-20 16:23:45 510
原创 最小二乘与梯度下降
http://blog.csdn.net/guang09080908/article/details/41415193 说:最小二乘和极大似然是目标函数,梯度下降是优化算法。机器学习的核心是一个model,一个loss fuction,再加上一个优化的算法。一个目标函数可以用不同的优化算法,不同的目标函数也可以用相同的优化算法。所以最小二乘和极大似然根本不是算法,和梯度下降毫无可比
2017-01-20 14:37:24 390
原创 高偏差、高方差、低精确率与低召回率、混淆矩阵
本文是个人理解1.高偏差(high bias)与方差(high variance) 偏差,可以理解为样本与模型预测结果的差距,可以使用平方差计算 方差是样本y值与模型期望的差的平方和。 模型对实验数据欠拟合(underfitting) 是会出现搞偏差,而过拟合(overfitting)会造成高方差 解决方法:直接的方法是将实验数据一分为二:训练集和测试集
2017-01-05 17:27:36 2747
LINDO 7.0 API
2012-08-16
LINDO 7.0 API
2012-08-16
LINDO API 7.0
2012-08-16
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人