将IDEA创建的Spark程序打jar包,并上传集群运行

1. 打包过程

此内容是接着上一篇 的,需将WordCount.Scala程序稍作修改,并将“.setMaster(“local”)”改为备注。

package abc

import org.apache.spark.{SparkContext, SparkConf}

object WordCount {
  def main(args: Array[String]) {
    /**
      * SparkContext 的初始化需要一个SparkConf对象
      * SparkConf包含了Spark集群的配置的各种参数
      */
    val conf=new SparkConf()
//      .setMaster("local")//启动本地化计算
      .setAppName("testRdd")//设置本程序名称

    //Spark程序的编写都是从SparkContext开始的
    val sc=new SparkContext(conf)
    //以上的语句等价与val sc=new SparkContext("local","testRdd")
    /*
    val data=sc.textFile("d://env_spark//spark-2.3.3//README.md")//读取本地文件
    data.flatMap(_.split(" "))//下划线是占位符,flatMap是对行操作的方法,对读入的数据进行分割
      .map((_,1))//将每一项转换为key-value,数据是key,value是1
      .reduceByKey(_+_)//将具有相同key的项相加合并成一个
      .collect()//将分布式的RDD返回一个单机的scala array,在这个数组上运用scala的函数操作,并返回结果到驱动程序
      .foreach(println)//循环打印
     */
    val rdd = sc.parallelize(List(1,3,5,7,9)).map(_*2)
    val mapRDD = rdd.filter(_>10).collect()
    println(rdd.reduce(_+_))
    for(arg <- mapRDD)
      print(arg+" ")
    println()
  }
}

再进行打jar包,
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
“OK”,得到
在这里插入图片描述
选中外部依赖jar包,右键,“Remove”,
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2. 上传集群并执行

通过Xftp将 FirstSpark.jar 上传至虚拟机集群中的Master机器上,然后启动Spark集群,执行
在这里插入图片描述
结果如下:
在这里插入图片描述
Spark的WebUI显示:
在这里插入图片描述

-- 远程调试 调试教程 --

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值