准备工作
运行Spark2.0,需要java和scala的支持,JDK至少1.7版本以上,scala至少2.11版本以上,CentOS7.x系统默认只安装了Java JRE,还需要安装Java JDK,并配置好JAVA_HOME变量。
安装Spark
1、下载安装
2、配置Spark环境
spark-defaults.conf配置一些jar包的引用。(注意:spark2.0.1版本不再有lib文件夹,只有jars文件夹,所以需要加上这个jars文件路径)
spark-env.sh配置spark的运行环境(比如:配置Java的路径JAVA_HOME,配置scala的路径等)
export JAVA_HOME=/usr/java/...
export SCALA_HOME=/usr/local/scala
参考:http://blog.csdn.net/g11d111/article/details/52793987
http://www.360doc.com/content/16/1028/09/37466175_602006100.shtml
http://www.360doc.com/content/16/1028/09/37466175_602004856.shtml
http://spark.apache.org/docs/latest/quick-start.html
之前spark运行失败应该是因为没有安装scala