搭建Spark服务器环境

一、spark服务器环境:
1.配置java环境;
2.下载spark包和对应版本的hadoop包;
3.进入spark安装目录,在conf目录下spark-env.sh文件的最后加入环境变量:

LD_LIBRARY_PATH=$HADOOP_HOME/lib/native


4.执行sbin/start-master.sh和sbin/start-slave.sh spark://hostname:7077

启动spark并检查是否有错误和警告日志;

访问master:http://ip:8080

5.提交python作业:

bin/spark-submit wordcount.py

6.提交jar作业:

bin/spark-submit --class com.test.spark.SparkTest --num-executors 3 --driver-memory 512M --executor-memory 512M --executor-cores 1 --master spark://hostname:7077 /home/guest/bigdata/spark-2.3.0-bin-hadoop2.7/test.jar

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是Spark服务器搭建的步骤: 1.下载Spark并解压缩到所有服务器的相同目录中。 2.在所有服务器上安装Java并设置JAVA_HOME环境变量。 3.在所有服务器上设置SPARK_HOME环境变量,例如: ```shell export SPARK_HOME=/path/to/spark ``` 4.在所有服务器上设置PATH环境变量,例如: ```shell export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin ``` 5.在Spark主节点上编辑conf/spark-env.sh文件,设置以下环境变量: ```shell export SPARK_MASTER_HOST=<master-node-hostname> export SPARK_MASTER_PORT=7077 export SPARK_WORKER_INSTANCES=2 export SPARK_WORKER_CORES=2 export SPARK_WORKER_MEMORY=2g export SPARK_WORKER_DIR=/path/to/spark/work export SPARK_LOG_DIR=/path/to/spark/logs export SPARK_PID_DIR=/path/to/spark/pids ``` 其中,SPARK_MASTER_HOST是Spark主节点的主机名,SPARK_WORKER_INSTANCES是每个工作节点上启动的工作进程数,SPARK_WORKER_CORES是每个工作进程使用的CPU核心数,SPARK_WORKER_MEMORY是每个工作进程可用的内存量,SPARK_WORKER_DIR是工作进程的工作目录,SPARK_LOG_DIR是Spark日志文件的目录,SPARK_PID_DIR是Spark进程ID文件的目录。 6.在所有工作节点上编辑conf/spark-env.sh文件,设置以下环境变量: ```shell export SPARK_WORKER_CORES=2 export SPARK_WORKER_MEMORY=2g export SPARK_WORKER_DIR=/path/to/spark/work export SPARK_LOG_DIR=/path/to/spark/logs export SPARK_PID_DIR=/path/to/spark/pids ``` 其中,SPARK_WORKER_CORES是每个工作进程使用的CPU核心数,SPARK_WORKER_MEMORY是每个工作进程可用的内存量,SPARK_WORKER_DIR是工作进程的工作目录,SPARK_LOG_DIR是Spark日志文件的目录,SPARK_PID_DIR是Spark进程ID文件的目录。 7.在Spark主节点上启动Spark集群: ```shell start-all.sh ``` 8.在Spark主节点上启动Spark Shell: ```shell spark-shell --master spark://<master-node-hostname>:7077 ``` 9.在Spark Shell中测试Spark集群: ```shell val data = Array(1, 2, 3, 4, 5) val distData = sc.parallelize(data) distData.reduce(_ + _) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

画蛇添足

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值