- 博客(5)
- 资源 (13)
- 收藏
- 关注
原创 DL:DBN on Imbalance Data 问题所在
DBN on Imbalance Data 问题所在简介DBN被证明是一种相当有用的机器学习分类方法。通常DBN被要求训练像MNIST(train set 60,000)一样大量的数据集。对DBN来说,不平衡数据尤其是个问题,会导致预训练有很强的偏差,就算用大量的标签来做监督性学习的微调,也很难将偏差消除掉。对于我们现在所用的数据,正样本仅占5%左右,大量的负样本造成了分类
2015-12-13 10:46:33 1276
原创 机器学习:Bootstrap
Bootstrap最近在看一篇论文 Training Deep Nets with Imbalanced and Unlabeled Data,主要是讲通过一种欠采样的方法解决DBN网络中数据不均衡的问题。其间该论文提出了一种解决方法,具体步骤如下(i) compute an entropy-based measure on ultrasound images; (ii) se
2015-12-13 10:38:02 8894
原创 DL:BP神经网络
BP Back Propagation BP神经网络BP 网络模型(Back Propagation)是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存储大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最快速下降法,通过反向传播来不断调整网络的权值和阈值,
2015-12-10 13:12:07 1091
原创 机器学习:分类与回归(classify and regression)
分类与回归问题在用DBN作手写体识别实验的时候,hinton 2006年发表的论文 A fast learning Algorithm for deep belief nets所对应的代码,里面用到softmax进行多分类。现就所查的资料和自己所理解的,整理这篇Blog。 Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,本文针对线性回归、逻辑回归和so
2015-12-10 11:23:08 7420
原创 机器学习:KNN K近邻算法
邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。KNN 算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在 确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 KNN方法在类别决策时,只与极少量的相邻样本有关。由于KNN方法主要靠
2015-12-08 13:34:51 1178
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人