前提:关闭防火墙
-
禁止下次开机启动, 并不会关闭防火墙
-
命令 : chkconfig iptables off
-
-
关闭防火墙
-
命令 : service iptables stop
-
contos7 关闭防火墙命令 sudo systemctl stop firewalld.service
-
一、上传 scala-2.10.4.zip 和 spark-2.0.2-bin-hadoop2.6.tgz 包 并解压
目录:D:\java\1笔记资料及资源\大数据Hadoop\资料\spark\spark-jar驱动包
二、配置 Scala 和 spark 的 环境变量
命令:vim /etc/profile
export SCALA_HOME=/opt/scala export SPARK_HOME=/opt/spark PATH=$SCALA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin
完成后刷新文件: source /etc/profile
三、输入 Scala 命令测试 Scala
四、进入spark 的conf 目录,将spark-env.sh.template 复制为 spark-env.sh 并编辑,添加如下信息:
JAVA_HOME 指定的是Java的安装目录; SCALA_HOME 指定的是Scala的安装目录; SPARK_MASTER_IP指定的是 Spark集群的Master 节点的P地址; SPARK_WORKER_MEMOERY 指定的Worker节点能够最大分配给Executors的内存大小,因为我们的三台机器配置都是2GB,