SparkStreaming与SparkSQL集成分析数据并将结果存入MySQL

SparkStreaming与SparkSQL集成分析数据并将结果存入MySQL

一、前提说明


  1. 安装了Flume
  2. 本案例实现流程图:
    在这里插入图片描述
  3. 本案例实现的功能是:实现wordcount功能,并将每次的分析结果保存到数据库中

二、实现步骤


  • 在MySQL创建top表,就只有两个字段:key和value
  • 在pom.xml中确保已经添加了MySQL数据库的驱动
  • 编写如下代码
    import java.net.InetAddress
    import java.sql.DriverManager
    
    import org.apache.spark.SparkConf
    import org.apache.spark.sql.SparkSession
    import org.apache.spark.storage.StorageLevel
    import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
    import org.apache.spark.streaming.flume.{FlumeUtils, SparkFlumeEvent}
    import org.apache.spark.streaming.{Seconds, StreamingContext}
    
    case class Count(key:String,value:Int)
    
    object FlumeDemoMySQL {
      def main(args: Array[String]): Unit = {
        //创建一个Context对象: StreamingContext (SparkContext, SQLContext)
        val conf = new SparkConf().setAppName("MyNetworkWordCount").setMaster("local[2]")
        val ssc = new StreamingContext(conf,Seconds(5))
    
        // 创建FlumeStream, 特别注意,hostname是windows上的虚拟网卡net8的ip
        val flumeDStream: ReceiverInputDStream[SparkFlumeEvent] = FlumeUtils.createPollingStream(ssc, "niit01", 8888)
        // 读取数据进行处理,即进行transform变换
        val flatMapDStream: DStream[String] = flumeDStream.flatMap(e => {
          val body = e.event.getBody
          val str = new String(body.array())
          val strings = str.split(" ")
          strings
        })
    
        val mapDStream = flatMapDStream.map((_, 1))
    
        val spark = SparkSession.builder().getOrCreate()
        // 引入spark隐式转换函数
        import spark.implicits._
    
        val transformDStream: DStream[Count] = mapDStream.transform(t => {
          t.map(x => Count(x._1, x._2))
        })
    
        // 打印结果
        //transformDStream.print()
    
        transformDStream.foreachRDD(c => {
          val dataFrame = c.toDF()
          dataFrame.createOrReplaceTempView("top")
          spark.sql("select key,sum(value) as total from top group by key order by total desc")
            .foreachPartition(x=>{
              //x.foreach(println)
              val connection = DriverManager.getConnection("jdbc:mysql://127.0.0.1:3306/niit?characterEncoding=UTF-8", "root", "123456")
              val preparedStatement = connection.prepareStatement("insert into realtime values(?,?)")
              x.foreach(r => {
                val key = r.get(0).toString
                val value = r.get(1).toString.toInt
                println(r.toString())
                println("key: " + key + ", value: " + value)
                val address = InetAddress.getLocalHost.getHostAddress
                val hostName = InetAddress.getLocalHost.getHostName
                val threadId = Thread.currentThread().getId
                val threadName = Thread.currentThread().getName
                println("HostAddress: " + address + ", HostName: " + hostName + ",threadId: " + threadId + ",threadName: " + threadName)
                preparedStatement.setString(1,key.toString)
                preparedStatement.setInt(2,value.toString.toInt)
                preparedStatement.executeUpdate()
              })
              if (preparedStatement != null) preparedStatement.close()
              if (connection != null) connection.close()
            })
        })
    
        // 开启
        ssc.start()
        ssc.awaitTermination()
    
        // 关闭资源
        spark.stop()
      }
    }
    
    
  • 启动程序
  • 配置Flume,配置文件内容可参考:Flume之Pull模式
  • 编写测试数据到某个文件,保存文件后,将该文件复制到Flume配置文件中所指定的路径
  • 查看IDEA程序控制台的结果
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

若兰幽竹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值