Functions函数
Gaussian Process---高斯过程
linearregression: 线性回归
logisitic 逻辑回归模型
multilayer perceptron 神经网络
SGD 随机梯度下降法
simple linear regression 简单线性回归
simple logistic 回归
SMO 支持向量机
Voted Perceptron 投票感知器算法
Lazy懒惰的
IBk():k最近邻分类
LWL locally weighted learning :局部加权学习
Meta
AdaBoostM1():Adaboost M1方法。-W参数指定弱学习器的算法。
AdditiveRegression 梯度下降回归树 梯度下降分类树
Bagging 套袋 bagging是一种用来提高学习算法准确度的方法,这种方法通过构造一个预测函数系列,然后以一定的方式将它们组合成一个预测函数。Bagging要求“不稳定”(不稳定是指数据集的小的变动能够使得分类结果的显著的变动)的分类方法。比如:决策树,神经网络算法。
ClassificationViaRegression:用回归的方法进行分类;
CostSensitiveClassifier,它可以封装任何分类和自定义分类应用中错过的名义变量矩阵。
CVParameterSelection采用交叉验证的方法,对参数进行优化选择。