深度学习&机器学习
bird-sup
这个作者很懒,什么都没留下…
展开
-
3.1 决策树(decision tree)算法
机器学习中分类和预测算法的评估: 1、准确率 2、速度 3、强壮性 4、可规模性 5、可解释性1、什么是决策树/判定树(decision tree)? 判定树是一个类似于流程图的树结构;其中每个内部结点表示在一个属性上的测试,每个分支代表一个属性输出,每个树叶结点代表类或类分布。树的最顶层是根结点。2、机器学习中分类方原创 2016-11-29 18:17:29 · 826 阅读 · 0 评论 -
7.8 回归中的相关度和R平方值应用
import numpy as npfrom astropy.units import Ybarnimport mathdef computeCorrelation(X,Y): xBar = np.mean(X) yBar = np.mean(Y) SSR = 0 varX = 0 varY = 0 for i in range(0,len(原创 2016-12-06 13:02:34 · 589 阅读 · 0 评论 -
机器学习实战笔记(Python)-01-K近邻算法(KNN)
目标:1.算法概述1.1 算法特点1.2 工作原理1.3 实例解析2算法实现2.1 K-近邻简单分类的应用2.2 在约会网站上使用K-近邻算法2.3 手写识别系统实例3 应用scikit-learn库实现k近邻算法1 算法概述1.1 算法特点简单地说,k-近邻算法采用测量不同特征值之间的距离方法进行分类。优点:原创 2017-05-24 22:23:00 · 762 阅读 · 0 评论 -
安装Hadoop及Spark for Ubuntu 16.04
安装JDK下载jdk(以jdk-8u91-Linux-x64.tar.gz为例)新建文件夹sudo mkdir /usr/lib/jvm解压下载的jdk文件并移动到新建的文件夹下sudo tar -xzvf jdk-8u91-linux-x64.tar.gz -C /usr/lib/jvm进入jvm文件夹并重命名解压出来的文件夹转载 2017-05-17 18:27:54 · 315 阅读 · 0 评论 -
非计算机专业研究生自学进BAT的经历!(转)
致我的2014! 昨天阿里的师兄带我到部门看了一下,团队的氛围很和谐,主管人也很好,看到我来了也主动跟我打招呼。也跟着团队们听了一个技术讲座,还有可乐零食吃。整个过程就感觉像一个班级再开个会,可以发言,可以开玩笑,很有校园的感觉。同时,牛人们听的过程中也在调试自己的程序,估计学习下操作流程就够我忙一阵子了……明天就要入职,今天晚上主管团队吃饭,师兄也把我喊过去了,跟大家熟悉了一下,感觉还是挺能转载 2017-05-29 22:26:49 · 4617 阅读 · 0 评论 -
tensorflow构建神经网络及可视化
import tensorflow as tfmatrix1 = tf.constant([[4,5]])matrix2 = tf.constant([[7],[4]])product = tf.matmul(matrix1,matrix2)sess = tf.Session()result = sess.run(product)print(result)sess.close(原创 2017-08-02 16:41:25 · 373 阅读 · 0 评论 -
tensorflow分类和dropout解决overfitting
import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data# number 1 to 10 datamnist = input_data.read_data_sets('MNIST_data', one_hot=True)def add_layer(inputs, in_size, o原创 2017-08-03 21:28:03 · 381 阅读 · 0 评论 -
一个简单的卷积神经网络
import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data# number 1 to 10 datamnist = input_data.read_data_sets('MNIST_data', one_hot=True)def compute_accuracy(v_xs, v_ys)转载 2017-09-18 15:12:38 · 641 阅读 · 0 评论 -
Saver保存提取
# import tensorflow as tf## W = tf.Variable([[20,2,1],[212,12,1]],dtype=tf.float32,name="weights")# b = tf.Variable([[23,12,3]],dtype=tf.float32,name="biases")## saver = tf.train.Saver()## init转载 2017-09-18 16:17:53 · 427 阅读 · 0 评论 -
简单生成式对抗网络
import argparse #1、参数解析的包import numpy as np #numpy科学计算的库,可以提供矩阵运算from scipy.stats import norm #scipy数值计算库,import tensorflow as tfimport matplotlib.pyplot as plt #matplotlib绘图库import seaborn as sn原创 2017-09-27 21:38:12 · 554 阅读 · 0 评论 -
RNN循环神经网络
import tensorflow as tfimport numpy as npfrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("MNIST_data",one_hot=True)lr = 0.001batch_size = 128trainin转载 2017-09-18 17:35:18 · 505 阅读 · 0 评论 -
TensorFlow实现自编码器
import numpy as npimport sklearn.preprocessing as prepimport tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_dataclass AdditiveGaussianNoiseAutoencoder(object): def __i原创 2017-10-15 12:30:05 · 370 阅读 · 0 评论 -
7.7 回归中的相关度和R平方值
皮尔逊相关系数(Pearson Correlation Coefficient)衡量两个值线性相关强度的量取值范围[-1,1]: 正向相关:>0, 负向相关:求相关系数:其他例子:R平方值:定义:决定系数,反应因变量的全部变异能通过回归关系被自变量解释的比例。描述:如R平方为0.8,则表示回归关系可以解释因原创 2016-12-06 10:52:26 · 1191 阅读 · 0 评论 -
7.6 非线性回归应用:logistic Regression application
import numpy as npimport randomdef gradientDescent(x,y,theta,alpha,m,numIterations): xTrans = x.transpose() for i in range(0,numIterations): hypothesis = np.dot(x,theta) los原创 2016-12-05 19:15:16 · 457 阅读 · 0 评论 -
7.5 非线性回归:logistic Regression(逻辑回归)
概率:定义 概率(P)robability:对一件事情发生的可能性的衡量范围 0计算方法:1、根据个人置信 2、根据历史数据 3、根据模拟数据条件概率:Logistic Regression(逻辑回归)例子原创 2016-12-05 18:24:09 · 566 阅读 · 0 评论 -
3.2 决策树(decision tree)应用
Python机器学习库:scikit-learn1、特性:简单高效的数据挖掘和机器学习分析对所有用户开放,根据不同需求可高度可重用性基于Numpy,Scipy和matplotlib开源,商用级别:获得BSD许可2、覆盖问题领域:分类(Classification),回归(Regression),聚类(Clustering),降维(dimensionality reduc原创 2016-11-29 18:42:37 · 798 阅读 · 0 评论 -
4.1 最邻近规则分类(K-Nearest Neighbor)KNN算法
1968年提出的分类算法输入基于示例的学习(instance-based learning),懒惰学习(lazy learning)例子:算法详述步骤:为了判断未知实例类别,用所有已知类别的实例作为参照选择参数k计算未知实例与所有已知实例的距离选择最近K个已知实例根据少数服从多数的投票法则(majority-voting),让未知实例原创 2016-11-29 20:19:11 · 1610 阅读 · 0 评论 -
4.2 最邻近规则分类(K-Nearest Neighbor)KNN算法应用m
数据集介绍: 虹膜(花的名字)from sklearn import neighborsfrom sklearn import datasetsknn = neighbors.KNeighborsClassifier()iris = datasets.load_iris()print irisknn.fit(iris.data,iris.targe原创 2016-11-29 20:51:43 · 1041 阅读 · 0 评论 -
Python写出LSTM-RNN(Long-Short Term Memory Recurrent Neural Networks )的代码
通过一个简单的Python代码来讲解递归神经网络import copy, numpy as npnp.random.seed(0) # compute sigmoid nonlinearitydef sigmoid(x): output = 1/(1+np.exp(-x)) return output # convert output of sigmoid func原创 2016-12-01 12:35:35 · 1062 阅读 · 0 评论 -
用Python 代码实现简单的神经网络
概要:直接上代码是最有效的学习方式。这篇教程通过由一段简短的 python 代码实现的非常简单的实例来讲解 BP 反向传播算法。代码如下:Python1234567891011X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ]原创 2016-12-01 17:15:08 · 1074 阅读 · 0 评论 -
入门实现神经网络
本文中我们会从头实现一个简单的3层神经网络。这里假设你已经比较熟悉微积分和机器学习的概念了。比如,你知道什么是分类和正则化。当然你也应该了解一点优化技巧,如梯度下降是如何工作的。但是即使你对上面提到的任何一个概念都不熟悉,你仍然会发现本文的有趣所在。但是为什么要从头实现一个神经网络呢?即使你打算将来使用像PyBrain这样的神经网络库,从头实现神经网络仍然是一次非常有价值的练习。它原创 2016-12-01 17:20:20 · 454 阅读 · 0 评论 -
RNN记忆特性
RNN与语义分析RNN的祖先是1982年提出的Hopfield网络。Hopfield网络因为实现困难,外加没有合适应用,被86年后的前馈网络取代。90年代恰逢神经网络衰落期,前馈MLP在Optimization上被揪出种种弊端,又被SVM取代。在Represention上,CV界老一辈还在用着hand-made特征,Speech&NLP也偏重Statistics的特原创 2016-12-01 15:57:35 · 7768 阅读 · 0 评论 -
5.1 支持向量机SVM(support Vector Machine)算法概念(上)
背景:最早在1963年提出,目前版本(soft margin)在1993年提出,在1995年发表深度学习(2012)出现之前,SVM被认为是机器学习中近十几年来最成功的,表现最好的算法机器学习的一般框架:训练集--》提取特征向量---》结合一定的算法(分类器:比如决策树,KNN)---》得到结果例子:两类?哪条线最好?SVM寻找区分两类的超平面(hyper pl原创 2016-11-30 10:39:47 · 1984 阅读 · 0 评论 -
7.1 简单线性回归(Simple Linear Regression)
属于监督学习(Supervised Learning);回归(Regression)前提介绍:为什么需要统计量?统计量:描述数据特征集中趋势衡量:均值(平均数,平均值)(mean){6,2,9,1,2}(6+2+9+1+2)/5 =20/5 = 4中位数(median):将数据中的各个数值按照大小顺序排列,居于中间位置的变量给数据排序:1,2,2,6,9原创 2016-12-04 10:53:48 · 510 阅读 · 0 评论 -
简单线性回归(Simple Linear Regression)下
1、简单线性回归模型举例:汽车卖家做电视广告数量与卖出的汽车数量:如何训练适合简单线性回归模型的最佳回归线?使sum of squares最小计算分子 = (1-2)(14-20)+(3-2)(24-20)+(2-2)(18-20)+(1-2)(17-20)+(3-2)(27-20)=6+4+0+3+7=20分母 = (1-2)^2+原创 2016-12-04 11:43:58 · 1048 阅读 · 0 评论 -
7.3 多元回归分析(multiple Regression)
与简单线性回归区别(simple linear regression):多个自变量(x)多元回归模型:多元回归方程:估计多元回归方程:一个样本被用来计算β0,β1,β2……βp的点估计b0,b1,b2……bp估计流程(与简单线性回归类似)估计方法:使sum of squares最小运算与简单线性回归类似,涉及到线性代数和矩原创 2016-12-04 14:14:48 · 1108 阅读 · 0 评论 -
7.4 多元回归分析(multiple Regression)应用
1、例子一家快递公司送货:X1:运输里程 X2:运输次数 Y:总运输时间from numpy import genfromtxtimport numpy as npfrom sklearn import datasets,linear_modeldataPath = r"E:\data\Delivery.csv"deliveryData = genfromtxt(d原创 2016-12-04 17:45:39 · 1197 阅读 · 0 评论 -
TensorFlow实现多层感知机
# coding: UTF-8# TensorFlow实现Softmax Regression识别手写数字(多层感知机)import tensorflow as tf########加载数据集########from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_se转载 2017-10-15 12:34:38 · 343 阅读 · 0 评论