Spark 安装(单机版)
注意:安装spark之前要安装jdk,hadoop
解压文件到指定目录
[root@cai install]# tar -zxvf spark-2.4.0-bin-hadoop2.6.tgz -C ../bigdata/
修改配置文件
重命名
[root@cai bigdata]# mv spark-2.4.0-bin-hadoop2.6/ spark240
到/spark240/conf目录下
将 spark-env.sh.template 重命名为 spark-env.sh
(1)saprk-env.sh
[root@cai conf]# mv spark-env.sh.template spark-env.sh
添加内容如下:
export SCALA_HOME=/opt/bigdata/scala211
export JAVA_HOME=/opt/bigdata/jdk18
export HADOOP_HOME=/opt/bigdata/scala211/hadoop260
export HADOOP_CONF_DIR=$HADOOP_HOME/</