自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

marho

好记性不如烂博客

  • 博客(8)
  • 资源 (6)
  • 收藏
  • 关注

转载 java jdbc连接数据库的完整步骤

JDBC连接数据库   •创建一个以JDBC连接数据库的程序,包含7个步骤:    1、加载JDBC驱动程序:       在连接数据库之前,首先要加载想要连接的数据库的驱动到JVM(Java虚拟机),       这通过java.lang.Class类的静态方法forName(String  className)实现。       例如:       try{    

2015-09-30 10:56:33 584

转载 KMeans算法的K值以及初始类簇中心点的选取

KMeans算法是最常用的聚类算法,主要思想是:在给定K值和K个初始类簇中心点的情况下,把每个点(亦即数据记录)分到离其最近的类簇中心点所代表的类簇中,所有点分配完毕之后,根据一个类簇内的所有点重新计算该类簇的中心点(取平均值),然后再迭代的进行分配点和更新类簇中心点的步骤,直至类簇中心点的变化很小,或者达到指定的迭代次数。  KMeans算法本身思想比较简单,但是合理的确定K值和K个初始类簇

2015-09-22 09:16:22 45526 1

原创 hive的远程模式安装(用mysql作为hive的元数据库)

主机ip(主机名):192.168.80.10(Master)192.168.80.11(Slave1)192.168.80.12()Slave2在主机Master中解压hive:tar –zxvf hive hive-0.9.0.tar.gz 设置环境变量,这里我用的是root用户修改/etc/profile文件。然后source /etc/profile

2015-09-19 20:10:38 7043 2

转载 MapReduce工作原理

本文的目录:1.MapReduce作业运行流程2.Map、Reduce任务中Shuffle和排序的过程 MapReduce作业详细的执行流程:流程分析:1.在客户端启动一个作业。2.向JobTracker请求一个Job ID。3.将运行作业所需要的资源文件复制到HDFS上,包括MapReduce程序打包的JAR文件、配置文

2015-09-18 10:01:04 663

转载 最优化问题中,牛顿法为什么比梯度下降法求解需要的迭代次数更少?

牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部。     根据wiki上的解释,从几何上说,牛顿法就是

2015-09-11 23:37:34 1832

转载 逻辑斯蒂回归与梯度下降算法

Logistic回归属于分类模型。回顾线性回归,输出的是连续的实数,而Logistic回归输出的是[0,1]区间的概率值,通过概率值来判断因变量应该是1还是0。因此,虽然名字中带着“回归”(输出范围常为连续实数),但Logistic回归属于分类模型(输出范围为一组离散值构成的集合)。整体步骤假如我们的自变量是“数学课和英语课的成绩”,x={x1,x2},因变量是“能否被哥大录取”,y∈{0

2015-09-11 23:34:03 5261

转载 线性回归与梯度下降算法

仍然是以房价与房屋面积的例子引出线性回归问题的解答。首先定义一些符号:m:训练数据的大小x:输入变量,是向量y:输出变量,是实数(x,y):一个训练实例:第i 个训练实例,i 是上标而不是指数在这里,为了方便说明,又添加了一个变量,问题变为房屋面积和卧室数目与房屋价格的关系。如果假设训练集中的数据使用线性回归解决的话,假设拟合函数如下:其中x

2015-09-11 23:13:15 819

转载 随机森林算法

随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森林之后,当有一个新的输 入样本进入的时候,就让森林中的每一棵决策树分别进行一下判断,看看这个样本应该属于哪一类(对于分类算法),然后看看哪一类被选择最多,就预测这个样本 为那一类。在建立每一棵决策树的过程中,有两点需要注意 - 采样与完全分裂。首先是两个随机采样的过程,ra

2015-09-10 15:41:34 1330

word2vec 中的数学原理详解.pdf

word2vec中的数学原理详解,pdf高清版,学习Word2Vec最好的材料,Word2Vec看这个就够了。

2020-01-16

机器学习最新课件

机器学习最新课件

2015-07-13

集体智慧编程中文版

集体智慧编程中文版

2015-06-07

(数据挖掘概念与技术第三版(英文原版)

数据挖掘概念与技术第三版(英文原版)

2015-06-07

数据挖掘概念与技术-(英文第2版)课后习题答案

数据挖掘概念与技术-(英文第2版)课后习题答案

2015-06-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除