- 博客(12)
- 资源 (18)
- 收藏
- 关注
原创 k-NN算法
本内容整理自coursera,欢迎交流转载。1. 1-NN算法对于数据集, initialize dis=+∞for i=1,2,…,N compute: δ=dis(xi,xq) if δ<dis: set dis=dis(x1,xq)return most similiar data initialize\ dis=+\infty\\ for\ i=
2016-12-30 20:44:12 2028
原创 CentOS安装python2.7和pip和cuda8.0和TensorFlow0.12
由于需要做机器学习,老师给配了个服务器,然而是以前师兄用的,然而装的centos,然而不让我装Ubuntu,不让我装双系统,所以我就入坑了。1. python2.7由于使用的是centos6.8,默认python版本是2.6,因此为了TensorFlow我需要安装python2.7.下面以2.7.12为例做一个记录。 操作步骤如下:1)安装Development toolsyum groupin
2016-12-29 15:22:24 1215
原创 ubuntu16.04 配置
ubuntu的重装率有点高,我基本很难连续超过半年不重装,现在总结一下自己常用的软件备忘。1 办公类WPS 网易云音乐 有道词典 搜狗拼音输入法 cheese compiz2 编程类codeblocks python sublime wing ide 5.1 mysql openssh tree flash3 python包numpy scipy scikit dj
2016-12-08 19:57:11 877
原创 tensorflow+ubuntu16.04
现在需要进行深度学习的项目,因此需要使用tensorflow,配置的过程比较坎坷,特此整理。 先来分享一下两个教程网站: http://tensorfly.cn/tfdoc/tutorials/overview.html http://tensorlayercn.readthedocs.io/zh/latest/本文以2.7为例: 首先,分为CPU版本和GPU版本:#Ubuntu/Linux
2016-12-08 19:02:35 1000
原创 Online Learning:随机梯度法
本内容整理自coursera,欢迎交流转载。1 大数据情景下的问题 随着数据集越来越大,按照之前的梯度下降(上升)算法,每次更新系数w^\hat{\textbf{w}}都会遍历所有的数据,这样计算会变得很慢。为了解决这个问题,于是有了之后的故事。2 每次使用一个数据进行更新 回想原来的梯度上升法, ∂l(w)∂wj=∑Ni=1hj(xi)(1[yi=+1]−P(y=+1|xi,w))=∑Ni
2016-12-06 18:37:54 978
原创 precision和recall
Recall(召回率);Precision(准确率);F1-Meature(综合评价指标);首先来个定义: Precision:被检测出来的信息当中 正确的或者相关的(也就是你想要的)信息中所占的比例; Recall:所有正确的信息或者相关的信息(wanted)被检测出来的比例。查了资料都习惯使用四格图来解释,来个易懂的四格图: true positives (纳真) fal
2016-12-05 20:32:52 752
原创 Boosting
本内容整理自coursera,欢迎交流转载。1 概述 i)循环迭代多次 更新样本分布 寻找当前分布下的最优弱分类器 计算弱分类器误差率 ii)聚合多次训练的弱分类器 这里的weighted_error=∑Ni=1αiy^i≠yi˙∑Ni=1αiweighted\_error=\frac{\sum^N_{i=1}\alpha{_i}\dot{\hat{y}_i\neq{y_i}}}{\
2016-12-05 16:48:19 633
原创 决策树——缺失数据的处理
本内容整理自coursera,欢迎交流转载。1 缺失数据的影响 有些数据可能有某些特征参数缺失,这不仅影响我们的训练模型,还会影响我们利用模型进行预测。2 解决办法2.1 删除缺失项删除含有特征参数缺失的数据(但是如果很多数据特征参数缺失,我们会删除大量数据,一般超过三分之一的数据被删除的话不宜采用此法)删除某个特征(如果仅仅是缺失项集中在了某几个特征,我们可以把所有数据的这些特征参数都删除
2016-12-04 12:02:55 7920
原创 决策树——过拟合的处理
本内容整理自coursera,欢迎交流转载。1 过拟合回顾 什么情况下我们就认为发生了过拟合呢? 训练集误差越来越小,true error却先变小后变大,我们就说发生了过拟合(overfitting)。 2 原则:使用简单的树 当两棵树在validation set的分类误差相近的情况下,选择复杂度低的决策树。 那么,我们怎么得到复杂度低的决策树呢?有两种方法:early
2016-12-04 11:10:54 6013
原创 决策树
本内容整理自coursera,欢迎交流转载。1 决策树举例 比方说,我们希望评价一个人的贷款风险评级,可以如下: 2 决策树学习——贪心算法(greedy algorithm) 先来看一个定义: Erroe=num of error predictionstotal numberErroe=\frac{num\ of\ error \ predictions}{total \ numb
2016-12-03 20:35:43 934
原创 线性分类器——Overfitting & regularization
本内容整理自coursera,欢迎交流转载。1 错误率和正确率error=num of mistakestotal number of data pointserror=\frac{ num\ of\ mistakes}{total\ number\ of\ data\ points} accuracy=num of correcttotal number of data pointsaccu
2016-12-03 10:51:40 666
原创 线性分类器——parameter learning
本内容整理自coursera,欢迎交流转载。1 如何确定系数矩阵 我们可以用likelihood l(w)来观测系数矩阵的分类质量。2 Data likelihoodMLE(maximum likelihood estimation) 注意:这里计算概率时需要注意真值y是+1还是-1,相应的我们在计算的时候需要使用对应的概率。 计算完上述内容之后,我们给出评价模型好坏的公式: l(w)
2016-12-02 16:50:54 502
BP神经网络代码
2017-10-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人