【Idea 打包spark程序,集群模式下运行】

由于这是我自己随手记录的,所以显得比较乱,但是步骤基本都有,排版就以后再说。

重试一次,自定义jar包程序运行。

1.建立scala项目

2.添加spark下的jar包依赖【usr/local/spark/jars】,当然也有scala的sdk,一般我这边已经有了
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
写程序:我终于,可以从头到尾,自己写下来所有的API。并且运行成功。
在这里插入图片描述
接下来开始打包,先注释掉,setMaster(“local”)
在这里插入图片描述
main class,这边自动给我识别,
在这里插入图片描述
然后删除,除项目jar包以外的所有依赖,【集群环境里面有,所以不需要】
在这里插入图片描述
在这里插入图片描述
右边的不用动,就删左边的。

然后就开始打包。

首先是:build -> build Artifact -> build[rebuild 用于改了程序之后的第二次等]
在这里插入图片描述
成功生成jar包:
在这里插入图片描述

然后,我这边拷贝jar包到已经打开了,集群环境的master机器上。

【即使我先打开的start-master.sh,start-slaves.sh,后打开的start-all.sh,也没事】

选择放到spark的examples目录的jar包下,这样要是出错了,顺带可以跑一跑,自带的计算PI的jar包。
在这里插入图片描述
然后开始运行:jar包目录下执行命令:

【即使我先打开的start-master.sh,start-slaves.sh,后打开的start-all.sh,也没事】

./bin/spark-submit --class second --master spark://master:7077 examples/jars/helloSpark2.jar

在这里插入图片描述

运行成功:

在这里插入图片描述

到这边集群上,运行自定义的jar包,勉强算是成功了。

再试一下命令: Yarn-client 模式,运行,成功了。

bin/spark-submit \
--class second \
--master yarn \
--deploy-mode client \
examples/jars/helloSpark2.jar

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NM3GSE4L-1653811717201)(C:\Users\dell\AppData\Roaming\Typora\typora-user-images\image-20220529155522694.png)]

试一下,yarn-cluster,成功了

bin/spark-submit \
--class second \
--master yarn \
--deploy-mode cluster \
examples/jars/helloSpark2.jar

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-b0kORiTT-1653811717201)(C:\Users\dell\AppData\Roaming\Typora\typora-user-images\image-20220529160705072.png)]
但是yarn-cluster集群模式下,不能在客户端上看到输出,只能去日志中看,或者web UI 上看。master:8088。

参考博客:

  • https://blog.csdn.net/sinat_36226553/article/details/103302969
  • https://blog.csdn.net/quitozang/article/details/77833390
  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用idea编写spark程序并提交到yarn集群的例子: 1. 首先,在idea中创建一个新的maven项目,选择scala语言。 2. 在pom.xml文件中添加以下依赖: ``` <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.4.0</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> <version>2.4.0</version> </dependency> </dependencies> ``` 3. 创建一个简单的Spark应用程序,例如: ``` import org.apache.spark.sql.SparkSession object WordCount { def main(args: Array[String]): Unit = { val spark = SparkSession.builder() .appName("Word Count") .getOrCreate() val lines = spark.read.textFile(args(0)).rdd val words = lines.flatMap(_.split(" ")) val wordCounts = words.map((_, 1)).reduceByKey(_ + _) wordCounts.saveAsTextFile(args(1)) spark.stop() } } ``` 4. 在idea中配置Spark环境变量,打开“Run/Debug Configurations”窗口,选择“Application”,然后单击“+”按钮添加一个新的配置。在“Environment variables”字段中添加以下内容: ``` SPARK_HOME=/path/to/your/spark/home ``` 5. 在idea中打开终端,使用以下命令将应用程序打包成jar文件: ``` mvn package ``` 6. 将jar文件上传到yarn集群中: ``` hadoop fs -put /path/to/your/jar/file /user/yourname/ ``` 7. 在yarn集群中提交应用程序: ``` spark-submit --class WordCount --master yarn --deploy-mode cluster /user/yourname/your-jar-file.jar /input/path /output/path ``` 其中,“WordCount”是你的应用程序的类名,“/input/path”是输入文件的路径,“/output/path”是输出文件的路径。 8. 等待应用程序运行完成,然后检查输出文件是否正确生成。 希望这个例子能够帮助你使用idea编写spark程序并提交到yarn集群

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值