spark 的wordcount 俩种实现

1. 在spark-shell 中实现wordcount

   sc.textFile("hdfs://hadoop-   101:9000/a.txt").flatMap(_.split("")).map((_,1)).reduceByKey(_+_).collect 

2. 在IDEA中实现

object WordCount extends  App {
  val conf: SparkConf = new SparkConf().setAppName("WordCount").setMaster("local")//本地调试
  val properties = System.getProperties
  properties.setProperty("HADOOP_USER_NAME", "root")
  
  val sc = new SparkContext(conf)

  val lines: RDD[String] = sc.textFile("hdfs://hadoop-101:9000/a.txt")

  val words: RDD[String] = lines.flatMap(x => x.split(" "))


  val wordAndOne: RDD[(String, Int)] = words.map(x => (x, 1))
  val reduced: RDD[(String, Int)] = wordAndOne.reduceByKey(_ + _)

  reduced.saveAsTextFile("hdfs://hadoop-101:9000/e")


  sc.stop()

}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值