修改spark-env.sh
配置文件
export HADOOP_HOME=/opt/modules/hadoop-2.8.2
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
测试运行Spark应用程序
测试运行Spark自带的求圆周率的例子:(提前启动HDFS和YARN)
bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode cluster /opt/modules/spark-2.4.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.4.0.jar
程序执行过程中,可在YARN的ResourceManager对应的Web界面中查看应用程序执行的详细信息:
查看结果: