ML
文章平均质量分 71
Fernando的十年
大数据,信息检索,云计算,在读研究生。
展开
-
Gradient Descent for Linear Regression,线性回归的梯度下降算法
针对线性回归模型,我们假设原创 2014-11-13 23:18:15 · 1218 阅读 · 0 评论 -
Adaboost
Boosting是一种贪心的自适应基展开算法。基本思想:——构造一个性能很高的预测是一件很困难的事情——但是构造一个性能一般的预测并不困难。Boosting就是基于上述观察结论,将一些弱规则组合得到最后一个强规则,这个最后的强规则比任何单个规则性能都高得多。 Adaboost。它的自适应在于:前一个基本分类器分错的样本会得到加强,加权后的全体样本再原创 2014-12-04 23:10:05 · 760 阅读 · 0 评论 -
Weka
1) 数据输入和输出WOW():查看Weka函数的参数。Weka_control():设置Weka函数的参数。read.arff():读Weka Attribute-Relation File Format (ARFF)格式的数据。write.arff:将数据写入Weka Attribute-Relation File Format (ARFF)格式的文件。2) 数据预处理原创 2015-04-04 15:16:36 · 491 阅读 · 0 评论 -
sparse Autoencoder(3)---自编码算法与稀疏性
参考自:UFLDL目前为止,我们已经讨论了神经网络在有监督学习中的应用。在有监督学习中,训练样本是有类别标签的。现在假设我们只有一个没有带类别标签的训练样本集合 ,其中 。自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值,比如 。下图是一个自编码神经网络的示例。原创 2015-05-30 09:45:50 · 689 阅读 · 0 评论 -
Sparse Autoencoder(2) --- BP(反向传播)
参考自:UFLDL反向传导算法假设我们有一个固定样本集 ,它包含 个样例。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例,其代价函数为:这是一个(二分之一的)方差代价函数。给定一个包含 个样例的数据集,我们可以定义整体代价函数为:以上公式中的第一项 是一个均方差项。第二项是一个规则化项(也叫权重衰减项),其目的是减小权重的幅度,防止过度拟原创 2015-05-25 19:18:13 · 802 阅读 · 0 评论 -
EM算法
本文转自JerryLead。转载 2014-11-30 10:59:52 · 491 阅读 · 0 评论 -
Sparse Autoencoder(1) -----Neural Networks
参考自UFLDL。概述以监督学习为例,假设我们有训练样本集 ,那么神经网络算法能够提供一种复杂且非线性的假设模型 ,它具有参数 ,可以以此参数来拟合我们的数据。从最简单的神经元说起,以下即是这个“神经元”的图示:这个“神经元”是一个以 及截距 为输入值的运算单元,其输出为 ,其中函数 被称为“激活函数”。在这里,我们选用sigmoid函数作为原创 2015-05-25 16:33:28 · 635 阅读 · 0 评论 -
MatLab2012b/MatLab2013b 分类器大全(svm,knn,随机森林等)
train_data是训练特征数据, train_label是分类标签。Predict_label是预测的标签。MatLab训练数据, 得到语义标签向量 Scores(概率输出)。1.逻辑回归(多项式MultiNomial logistic Regression)Factor = mnrfit(train_data, train_label);Scores = mnrv转载 2014-11-11 20:31:36 · 987 阅读 · 0 评论