windows下spark环境搭建

    搭建完成单机环境可运行。

1.使用maven搭建。依赖spark,hadoop的jar包.不需要去安装hadoop,spark。不需要hadoop.dll.

<span style="white-space:pre">		</span><dependency>
			<groupId>org.apache.spark</groupId>
			<artifactId>spark-core_2.10</artifactId>
			<version>1.6.0</version>
			<exclusions>
				<exclusion>
					<groupId>org.apache.hadoop</groupId>
					<artifactId>hadoop-yarn-api</artifactId>
				</exclusion>
			</exclusions>
		</dependency>
		<dependency>
			<groupId>org.apache.hadoop</groupId>
			<artifactId>hadoop-client</artifactId>
			<version>2.7.2</version>
			<exclusions>
			<exclusion>
				<groupId>javax.servlet</groupId>
				<artifactId>*</artifactId>
			</exclusion>
		</exclusions>
		</dependency>
		<dependency>
			<groupId>com.databricks</groupId>
			<artifactId>spark-csv_2.11</artifactId>
			<version>1.4.0</version>
		</dependency>
		<dependency>
			<groupId>org.apache.commons</groupId>
			<artifactId>commons-math3</artifactId>
			<version>3.6.1</version>
		</dependency>
	

2.eclipse安装scala插件(也可以不装)。

3.准备winutils.exe,比如存放目录为:c:\hadoop\bin\winutils.exe。在eclipse的spark项目属性run/debug_setting中,指定environment环境变量:变量名为HADOOP_HOME,变量值为c:\hadoop。确认HADOOP_HOME\bin目录下有winuils.exe文件即可。可能配置HADOOP_HOME目录也行,还没试。

ok,运行spark示例代码吧。

想在本机执行,spark示例代码需要做个小改动:创建SparkConf时增加setMaster("local");

........ = new SparkConf().setAppName("JavaWordCount").setMaster("local");


补充===================
经测,在windows环境变量中设置HADOOP_HOME变量,指向hadoop根目录,确认HADOOP_HOME\bin目录下有winuils.exe文件,不需要在eclipse中设置了。


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值