spark-2.4.2搭建(配合hadoop2.7及以上环境)

1、spark官网下载spark,可以可以在win系统中下载后上传至linux,也可以linux中直接下载:         wget http://mirror.bit.edu.cn/apache/spark/spark-2.4.2/spark-2.4.2-bin-hadoop2.7.tgz

2、下载后解压至自己要安装的位置:tar -zxvf spark-2.4.2-bin-hadoop2.7.tgz,重命名为spark,

3、配置spark:

     (1)、将conf下的 slaves.template复制为slaves,进入slaves,将localhost删除,新增子节点主机名,我的子节点为node-2、node-3。

     (2)、将conf下的spark-env.sh.template复制为spark-env.sh,进入spark-env.sh,新增:

                  SPARK_MASTER_HOST=node-1
                  SPARK_MASTER_PORT=7077

4、将整个spark文件拷贝到另外两台子节点机器上:

         scp -r spark root@node-2:/usr/centos/

         scp -r spark root@node-3:/usr/centos/

5、主节点启动spark:./start-all.sh,查看启动是否成功:浏览器中输入:http://node-1:8080/

 6、如果启动时报:

    node-2: failed to launch: nice -n 0 /usr/centos/spark/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081       spark://node-1:7077
   node-2:   JAVA_HOME is not set
   node-2: full log in /usr/centos/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node-2.out
   node-3: failed to launch: nice -n 0 /usr/centos/spark/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081         spark://node-1:7077
   node-3:   JAVA_HOME is not set

  则需要在node-2、node-3上的/root/.bashrc文件中配置export JAVA_HOME=/usr/centos/jdk1.8.0_201,然后再./stop-all.sh,再重启:./start-all.sh。

7、配置Job History Server

   (1)、进入spark的config文件夹,将 spark-defaults.conf.template复制为 spark-defaults.conf,修改 spark-defaults.conf文件,开启log,将下面三个被注释的:

#spark.master                     spark://master:7077
#spark.eventLog.enabled           true
#spark.eventLog.dir               hdfs://namenode:8021/directory

改为:

spark.master                     spark://node-1:7077
spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://node-1:9000/directory

(2)、修改spark-env.sh,添加如下配置:

            export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=4000 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs://node-1:8021/directory"

(3)、将spark-defaults.conf、spark-env.sh复制到另外两台从节点上:

        scp spark-defaults.conf node-2:/usr/centos/spark/conf/

        scp  spark-env.sh node-2:/usr/centos/spark/conf/

       scp spark-defaults.conf node-3:/usr/centos/spark/conf/

       scp  spark-env.sh node-3:/usr/centos/spark/conf/

   (4)、启动历史日志:./start-history-server.sh。

   (5)、浏览器查看历史日志:http://node-1:4000/

8、计算spark中求pi案例:

     bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://node-1:7077 /usr/centos/spark/examples/jars/spark-examples_2.12-2.4.2.jar 100

 

 

 

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值