spark安装_windows下spark开发环境配置

549201afd5fa8d93a0c385514810819c.png

windows下spark开发环境配置

特注:windows下开发spark不需要在本地安装hadoop,但是需要winutils.exe、hadoop.dll等文件,前提是你已经安装了eclipse、maven、jdk等软件

spark支持jdk版本建议是1.8及以上,如果开发spark建议将jdk编译版本设置为1.8

我选择的spark是spark-1.4.0-bin-hadoop2.6.tgz,故以该版本为例

第一步:下载spark-1.4.0-bin-hadoop2.6.tgz到本地,并解压在本地目录

地址为:http://spark.apache.org/downloads.html

第二步:下载windows下hadoop工具包(分为32位和64位的),在本地新建一个hadoop目录,必须有 bin目录例如:D:sparkhadoop-2.6.0bin

然后将winutil等文件放在bin目录下

地址:https://github.com/sdravida/hadoop2.6_Win_x64/tree/master/bin

第三步:配置hadoop和spark的环境变量:

HADOOP_HOME 例如:D:sparkhadoop-2.6.0

SPARK_HOME

SPARK_CLASSPATH

path中加入spark和hadoop

至此,在cmd命令下输入spark-shell 至此windows下配置ok了

搭建自己的spark maven项目hello world程序

对于已经安装了eclipse环境的程序员来说,不用再单独安装saprk的开发环境,由于spark是基于scala语言的,所以如果要想看源代码,需要安装scala的eclipse插件

第一步:安装scala的eclipse插件

地址:http://download.scala-ide.org/sdk/lithium/e44/scala211/stable/site

第一步:创建自己的spark maven项目

勾选create a simple project

f1b6856e07ad01d74e2b93ec7a3cc09e.png

第二步:选则maven生成的包,这里一定要选这jar,因为spark程序一般是打包为jar包的

其他必填自己按需填

ae2e72fb1779bb36a65cc7194bc07d82.png

第三步:添加spark的jar包到刚才新建的maven项目中

找到集群安装的spark安装目录,在lib目录下会看到

c2712d63219c80c51b361e1a4b9327d5.png

将加到maven项目的build path下

68d90d1379fdfc2289cd1ad35f15fcce.png

第四步:pom中添加自己的spark,hadoop maven依赖

例如:

org.apache.spark

spark-core_2.10

1.5.2

org.apache.spark

spark-sql_2.10

1.5.2

org.apache.hadoop

hadoop-client

1.2.0

第五部:spark程序的入口是main函数,至此可以编写自己的hello world并让它跑起来和调试

public class SparkMain implements Serializable {

public static void main(String[] args) throws Exception {

//编写自己的spark程序

System.out.println(“hello spark!”);

}

}

Now everything is ready for you to run your main Class. Enjoy!

--本篇由同事葛同学提供。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值