spark-core 综合练习(广播变量,join的使用)

package day04

import org.apache.spark.broadcast.Broadcast
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
  * Desc:
  * 数据说明:
  *   users.dat ---UserID::Gender::Age::Occupation::Zip-code
  *   movies.dat --- MovieID::Title::Genres
  *   ratings.dat ---UserID::MovieID::Rating::Timestamp
  * 需求:
  *   1:评分(平均分)最高的10部电影
  *   2:18 - 24 岁的男性年轻人 最喜欢看的10部电影
  *   3:女性观看最多的10部电影名称及观看次数
  */
object MovieLogAnalyzer {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("MovieLogAnalyzer").setMaster("local[*]")
    val sc: SparkContext = new SparkContext(conf)

    //读取文件
    val userFiles: RDD[String] = sc.textFile(args(0))
    val moviesFiles: RDD[String] = sc.textFile(args(1))
    val ratingsFiles: RDD[String] = sc.textFile(args(2))

    //整理用户数据,对用户数据进行切分
    val userRdd: RDD[(Int, String, Int)] = getUserRDD(userFiles)
    //整理电影数据,对用户数据进行切分
    val movieRdd: RDD[(Int, String)] = getMovieRDD(moviesFiles)
    //对评分数据进行整理
    val ratingRdd: RDD[(Int, Int, Double)] = getRatingsRDD(ratingsFiles)

    println("-----------------1:评分(平均分)最高的10部电影---------------------------")
    //所有的电影及评分数据
    val movieAndRating: RDD[(Int, Double)] = getMovieAndRateTotal(ratingRdd)
    val movieAndRatingResult: Array[(Int, Double)] = movieAndRating.sortBy(-_._2).take(10)
    println(s"评分(平均分)最高的10部电影:${movieAndRatingResult.mkString(",")}")

    println("-----------------2:18 - 24 岁的男性年轻人 最喜欢看的10部电影----------------")
    //满足条件的所有电影和观看次数(评分次数)
    val freshMaleMovie: RDD[(Int, Int)] = getFreshMaleMovie(sc, ratingRdd, userRdd)
    val freshMaleMovieResult: Array[(Int, Int)] = freshMaleMovie.sortBy(-_._2).take(10)
    println(s"18 - 24 岁的男性年轻人 最喜欢看的10部电影:${freshMaleMovieResult.mkString(",")}")


    println("-----------------3:女性观看最多的10部电影名称及观看次数----------------")
    val famaleMovieTitle: RDD[(String, Int)] = getFamaleMovieTitle(sc, ratingRdd, userRdd, movieRdd)
    val famaleMovieTitleResult: Array[(String, Int)] = famaleMovieTitle.sortBy(-_._2).take(10)
    println(s"女性观看最多的10部电影名称及观看次数:${famaleMovieTitleResult.mkString(",")}")

    sc.stop()
  }

  /**
    * 女性观看最多的10部电影名称及观看次数
    * @param sc
    * @param ratingRdd
    * @param userRdd
    * @param movieRdd
    */
  def getFamaleMovieTitle(sc:SparkContext, ratingRdd:RDD[(Int, Int, Double)], userRdd:RDD[(Int, String, Int)], movieRdd: RDD[(Int, String)] )={
    //过滤女性用户
    val famaleRDD: RDD[(Int, String, Int)] = userRdd.filter(t=>("F".equals(t._2)))
    //提取出来uid,利用set或者distince去重
    val famaleSet: Set[Int] = famaleRDD.map(_._1).collect().toSet
    val famaleRef: Broadcast[Set[Int]] = sc.broadcast(famaleSet)

    //过滤出俩所有女性看过的电影
    val fUserMovie: RDD[(Int, Int, Double)] = ratingRdd.filter(t=>famaleRef.value.contains(t._1))

    //聚合统计,返回女性观看的电影及观看次数汇总
    val fMovieOrder: RDD[(Int, Int)] = fUserMovie.map(t=>(t._2,1)).reduceByKey(_+_)
    //(电影id,(观看次数,电影名称))
    val joinRDD: RDD[(Int, (Int, String))] = fMovieOrder.join(movieRdd)

    //返回(电影名称,观看次数)
    joinRDD.map(t=>(t._2._2,t._2._1))

  }

  /**
    * 18 - 24 岁的男性年轻人 最喜欢看的10部电影
    * @param sc
    * @param ratingRdd
    * @param userRdd
    */
  def getFreshMaleMovie(sc:SparkContext, ratingRdd:RDD[(Int, Int, Double)],userRdd: RDD[(Int, String, Int)] )={
    //过滤18-24岁的男青年
    val freshMan: RDD[(Int, String, Int)] = userRdd.filter(t=>"M".equals(t._2) && t._3>=18 && t._3<=24)
    
    //提取出来uid,利用set或者distince去重
    val freshSet: Set[Int] = freshMan.map(_._1).collect().toSet
    val freshRef: Broadcast[Set[Int]] = sc.broadcast(freshSet)

    //从评分数据中,提取电影id,用户id,并判断出来满足条件的userid
    val movieAndOne: RDD[(Int, Int)] = ratingRdd.map(t => (t._1, t._2)).filter({
      case (uid, _) => {
        val freshInExecutor = freshRef.value
        //判断uid是否是18--24的男青年
        freshInExecutor.contains(uid)
      }
    }).map(t => (t._2, 1))
    //分组聚合
    movieAndOne.reduceByKey(_+_)
  }

  /**
    * 1:评分(平均分)最高的10部电影
    * @param ratingRdd
    */
  def getMovieAndRateTotal(ratingRdd: RDD[(Int, Int, Double)])={
    //数据预处理,获取(电影id,(评分,1)),方便使用reduceBykey
    val movieAndRating: RDD[(Int, (Double, Int))] = ratingRdd.map(t=>(t._2,(t._3,1)))

    //分组聚合(电影id,(电影的总评分,评分次数))
    val reduceRdd = movieAndRating.reduceByKey((r1, r2) => {
      //获取总的评分
      val sunRating = r1._1 + r2._1
      //评分次数
      val count = r1._2 + r2._2
      (sunRating, count)
    })
    //获取评分平均值
    reduceRdd.map{ case(movie,(sum,len))=>(movie,sum.toDouble/len)}
  }

  /**
    * 在用户志中获取用户基本资料信息
    * @param userFiles
    */
  def getUserRDD(userFiles:RDD[String]) = {
    userFiles.map(line => {
      val fields: Array[String] = line.split("::")
      val uid = fields(0).toInt
      val gender = fields(1)
      val age = fields(2).toInt
      //取出其中扥用户id,性别,年龄
      (uid, gender, age)
    }).cache()
  }
    /**
      * 在电影日志中获取电影基本信息
      * @param moviesFiles
      */
    def getMovieRDD(moviesFiles:RDD[String]) ={
      moviesFiles.map(line=>{
        val fields = line.split("::")
        val mid = fields(0).toInt
        val title=fields(1)
        //获取电影信息
        (mid,title)
      }).cache()
    }

  /**
    * 在评分日志中获取用户id,电影id,评分id关联数据
    * @param ratingsFiles
    */
   def getRatingsRDD(ratingsFiles:RDD[String])={
     ratingsFiles.map(line=>{
       val fields = line.split("::")
       val uid = fields(0).toInt
       val mid = fields(1).toInt
       val rating = fields(2).toDouble
       //获取用户id,电影id,评分id关联数据
       (uid,mid,rating)
     }).cache()
   }
}

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 动态广播变量Spark Streaming中非常有用的功能。它可以让我们在流处理过程中动态地更新广播变量的值,从而提高程序的性能和灵活性。 在Spark Streaming中,我们可以使用SparkContext的broadcast方法来创建广播变量。然后,我们可以在DStream的foreachRDD方法中使用广播变量来进行一些计算。 当我们需要动态地更新广播变量的值时,我们可以使用Spark Streaming的transform方法。这个方法可以让我们在DStream中使用任意的RDD转换操作,包括更新广播变量的值。 例如,我们可以使用transform方法来读取一个外部的配置文件,并将其转换为一个广播变量。然后,我们可以在DStream的foreachRDD方法中使用这个广播变量来进行一些计算。当配置文件发生变化时,我们可以重新读取它,并使用transform方法来更新广播变量的值。 总之,动态广播变量Spark Streaming中非常有用的功能,可以帮助我们提高程序的性能和灵活性。 ### 回答2: Spark Streaming中的动态广播变量允许我们将一个可变的变量发送到Spark集群的每个节点上,并在每个节点上更新它。这使得我们能够在流数据处理过程中共享和更新全局状态。 动态广播变量使用步骤如下: 1. 创建一个广播变量使用SparkContext的broadcast方法将一个可变的变量广播到整个集群。例如,可以将一个关键字列表广播Spark Streaming的每个节点上。 2. 在转换操作中使用广播变量:在Spark Streaming的转换操作中可以通过使用广播变量的value属性来访问广播变量的值。例如,在DStream的foreachRDD操作中可以访问广播变量并执行与广播变量相关的计算。 3. 更新广播变量:通过在driver程序中修改广播变量的值,然后使用新值再次调用广播方法来更新广播变量的内容。这样,新值将在下一次广播时传播到集群的每个节点。 使用动态广播变量的好处是可以将一些全局状态共享到整个Spark Streaming应用程序中,而无需将其传递给每个节点。这样可以减少网络传输的开销,并提高应用程序的性能。 总结起来,动态广播变量Spark Streaming中管理全局状态的一个强大工具。它可以实现在流数据处理过程中对全局状态进行共享和更新,从而提高应用程序的性能和效率。 ### 回答3: Spark Streaming中的动态广播变量是一种在Spark Streaming作业中共享变量的机制。它可以用于将某个变量广播给所有的工作节点,这样每个节点都可以在本地访问该变量而不需要通过网络传输。动态广播变量在一些需要频繁更新的场景中特别有用。 在Spark Streaming中,要使用动态广播变量,需要首先创建一个Broadcast变量,并通过前端驱动程序将其广播到所有工作节点。然后,在每个工作节点的任务中,可以直接引用该变量而不需要序列化和传输。 动态广播变量使用步骤如下: 1. 在Spark Streaming应用程序的驱动程序中,通过创建一个共享的变量Broadcast来定义需要广播变量。 2. 使用Spark Streaming的dstream.foreachRDD方法迭代每一个RDD。 3. 在每一个RDD的foreachPartition方法内,通过调用Broadcast.value方法访问广播变量。 这样,每个工作节点都可以在本地获取广播变量,而无需将变量从驱动程序传输到工作节点。 动态广播变量Spark Streaming中的应用场景非常广泛,例如在进行实时机器学习或实时数据分析时,可以使用动态广播变量来保存模型参数或预定义的规则等,以便在每个工作节点上进行使用,提高计算的效率和性能。 总的来说,Spark Streaming中动态广播变量使用可以帮助我们在作业中共享变量,并且在处理实时数据时提高作业的效率和性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值