Spark2.0安装

准备工作

运行Spark2.0,需要java和scala的支持,JDK至少1.7版本以上,scala至少2.11版本以上,CentOS7.x系统默认只安装了Java JRE,还需要安装Java JDK,并配置好JAVA_HOME变量。

安装Spark

1、下载安装

2、配置Spark环境

spark-defaults.conf配置一些jar包的引用。(注意:spark2.0.1版本不再有lib文件夹,只有jars文件夹,所以需要加上这个jars文件路径)


spark-env.sh配置spark的运行环境(比如:配置Java的路径JAVA_HOME,配置scala的路径等)

export JAVA_HOME=/usr/java/...

export SCALA_HOME=/usr/local/scala

参考:http://blog.csdn.net/g11d111/article/details/52793987

http://www.360doc.com/content/16/1028/09/37466175_602006100.shtml

http://www.360doc.com/content/16/1028/09/37466175_602004856.shtml

http://spark.apache.org/docs/latest/quick-start.html

之前spark运行失败应该是因为没有安装scala





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值