Spark---如何打成jar包至服务器运行


编写路径的配置文件

【为什么要编写配置文件?是因为不想在主程序中将路径写死】

利用java中的util包下的Properties读取配置文件信息

新建test.properties文件放在resource文件夹中
在这里插入图片描述
test.properties文件中的内容

【第一个是要读的文件地址,第二个是要保存的文件地址】

path:hdfs://192.168.XXX.100:9000/sparkfile/hello.txt
savepath:hdfs://192.168.XXX.100:9000/sparkout/helloworld

编写程序

import java.io.FileInputStream
import java.util.Properties

import org.apache.spark.{SparkConf, SparkContext}

object HelloWorld {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local[*]").setAppName("json")
    val sc = SparkContext.getOrCreate(conf)

    //读取配置路径
    val properties = new Properties()
    properties.load(new FileInputStream("/opt/spark_test/test.properties"))
    val path = properties.getProperty("path")
    val savePath = properties.getProperty("savepath")
//    println(path)

    //wc程序
    val rdd1= sc.textFile(path)
    val result = rdd1.flatMap(_.split(" ")).map(x=>(x,1)).reduceByKey(_+_)
    result.collect()foreach(println)

    result.saveAsTextFile(savePath)  //保存至文件
  }
}

打jar包

不会的请看这里 一看就会

打成jar包,然后删除加密文件
用压缩软件打开,找到 META-INF 目录中的 .DSA和.SF文件 ,将它们都删除
在这里插入图片描述

将相关文件上传至对应的地方

【路径参考程序中的地址】

  • 上传jar包至服务器
  • hello.txt上传至HDFS路径
  • test.properties上传至服务器

程序执行命令

spark-submit 
--class com.kgc.bigdata.spark.core.WordCount
--master spark://hadoop000:7077 
/home/hadoop/lib/spark-1.0.SNAPSHOT.jar  /data/wordcount

这里执行的命令

spark-submit \
--class HelloWorld \
--master local[*] ./SparkStu.jar

效果截图

hello.txt
在这里插入图片描述

运行结果
在这里插入图片描述
以及生成了对应的文件
在这里插入图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值