def main(args: Array[String]): Unit = {
if(args.length < 2){println(args.length);println(“Please input 2 args, return”); return}
val conf = new SparkConf().setAppName(“spark1”).setAppName(“icy hunter”).setMaster(“local[*]”)
val sc = new SparkContext(conf)
sc.textFile(args(0), 4)
.flatMap(.split(" "))
.map((, 1))
.reduceByKey(+)
.saveAsTextFile(args(1))
sc.stop()
}
}
此时可以测试一下传参效果。
idea调试时,main参数输入:菜单->run->Edit Configurations:
![在这里插入图片描述](https://img-blog.csdnimg.cn/444a8f9fdbd94110bc9fcb8a92377393.png)
这就是传入的两个参数。
可以调试的时候试试。
## 打包成jar包
首先需要修改代码,将setMaster(“local[\*]”)删了
//包
import org.apache.spark.{SparkContext, SparkConf}
object testMainInput {
def main(args: Array[String]): Unit = {
if(args.length < 2){println(args.length);println(“Please input 2 args, return”); return}
val conf = new SparkConf().setAppName(“spark1”).setAppName(“icy hunter”)
val sc = new SparkContext(conf)
sc.textFile(args(0), 4)
.flatMap(.split(" "))
.map((, 1))
.reduceByKey(+)
.saveAsTextFile(args(1))
sc.stop()
}
}
project structure中如下选项
![在这里插入图片描述](https://img-blog.csdnimg.cn/4b077f7cd32440879ecc5a9bcac08718.png)
进入
![在这里插入图片描述](https://img-blog.csdnimg.cn/dd9137143cf6408990012c146ef4036b.png)
Main Class点击文件夹标志选择
![在这里插入图片描述](https://img-blog.csdnimg.cn/2bb3fa5e633e4857bd7aa6567f4191d9.png)
点击ok
![在这里插入图片描述](https://img-blog.csdnimg.cn/f94c37e4a111405c86ef6d08f0752c4f.png)
点击ok
![在这里插入图片描述](https://img-blog.csdnimg.cn/32f4cda2ad8b497597dd9fcafb8998bd.png)
然后需要进行瘦身,把不需要的包删了,这样打包出来就比较小了。
![在这里插入图片描述](https://img-blog.csdnimg.cn/68db999be777426dba9ded710d5e88a1.png)
点击-号,这些全删了,留最后一个compile output即可。
![在这里插入图片描述](https://img-blog.csdnimg.cn/4c191cf926ad4159a05e73ac6eb33277.png)
然后ok了。
![在这里插入图片描述](https://img-blog.csdnimg.cn/a641f3649151480ebe515c00dd843889.png)
同时点击一下,我们也可以看到打包后存放的路径
接下来开始打包:
![在这里插入图片描述](https://img-blog.csdnimg.cn/2ff19e777b4a4ad3b57f0389fee2fee7.png)
点击build Artifacts
![在这里插入图片描述](https://img-blog.csdnimg.cn/2d1afda292344878b213d2f4bb10463e.png)
跳出这个,点击rebuild即可。
这样就打包完成了。
## 发送到Hadoop运行
![在这里插入图片描述](https://img-blog.csdnimg.cn/08cd1d9cdbee40f4b715ad445f56c869.png)
首先找到jar包位置
打开终端
spark-submit --master yarn --deploy-mode cluster testMainInput.jar “hdfs://192.168.3.215:9000/mydir123/a1.txt” “hdfs://192.168.3.215:9000/mydir123/out3”
其中路径得你自己集群的文件路径才能运行成功。
## 使用脚本运行
创建一个脚本文件
vim show.sh
然后输入:
echo Start spark-submit:
spark-submit --master yarn --deploy-mode cluster /home/bigdata3/IdeaProjects/testMainInput/out/artifacts/testMainInput_jar/testMainInput.jar “hdfs://192.168.3.215:9000/mydir123/a1.txt” “hdfs://192.168.3.215:9000/mydir123/out4”
注意jar包的路径得全路径了。
![img](https://img-blog.csdnimg.cn/img_convert/e6f17b68adb604033af733c83fa0b0e1.png)
![img](https://img-blog.csdnimg.cn/img_convert/b98e4f78f23d49364777a2712ab73cf6.png)
![img](https://img-blog.csdnimg.cn/img_convert/7e18bccbdec73561b5f265a5d9088b36.png)
**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**
**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**
**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**