Hadoop大数据开发__Spark on YARN模式分布式集群安装部署

本文详细介绍了如何在Linux环境下下载并安装Spark,修改环境变量,以及如何通过YARN资源管理器提交Spark Pi样例应用进行测试。步骤包括解压Spark压缩包,设置HADOOP_CONF_DIR,以及使用spark-submit命令启动任务。
摘要由CSDN通过智能技术生成

1、下载解压spark

cd /home/hadoop/app
tar -zxvf spark-3.3.0-bin-hadoop3.tgz
rm spark-3.3.0-bin-hadoop3.tgz
ln -s spark-3.3.0-bin-hadoop3 spark

2、修改spark-env.sh

cd /home/hadoop/app/spark/conf
vi spark-env.sh
#追加下面的路径
HADOOP_CONF_DIR=/home/hadoop/app/hadoop/etc/hadoop

3、测试运行

cd /home/hadoop/app/spark
bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn examples/jars/spark-examples_2.12-3.3.0.jar 10 #使用spark自带jar包,提交到Hadoop的YARN上运行
http://hadoop01:8080 #打开地址会看到任务执行状态为SUCCEEDED
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值