Spark-StructStreaming-计算结果写入到文本文件

前言

主要讲述 StructStreaming将计算结构写入到文本文件

正文

package org.sun.IndustryBigDataAnalyticsPartform
import org.apache.spark.sql.SparkSession
import java.io._
import org.apache.spark.sql.ForeachWriter
import org.apache.spark.sql.Row
object DataSetTest{

   def main(args:Array[String]){
   val kafkaservers=args(0) //kafka客户端host地址
   val topic=args(1) //topic的名称
   val outputfile=args(2) //输出的文本名字
   val spark=SparkSession
      .builder
      .appName("testWriteResultToText")
      .master("local")
      .getOrCreate()

      import spark.implicits._
   val lines = spark
      .readStream
      .format("kafka")    .option("kafka.bootstrap.servers",kafkaservers)
      .option("subscribe", topic)
      .load()
      .selectExpr("cast(topic as String) ","cast(key as String)","CAST(value AS STRING)")
      .as[(String,String,String)]
      lines.createTempView("Originalkafka")
      import spark.sql
    val count=sql("select count(*) from Originalkafka group by value")
    val query =count.writeStream
      .outputMode("complete")
      .foreach(new ForeachWriter[Row]{
          var fos:FileOutputStream=null
          def open(partitionId:Long,version:Long):Boolean={
              try{
              fos=new FileOutputStream(outputfile);
              true
              }
              catch{
               case e:Exception =>false
              }
          }
          def process(record:Row):Unit={
             fos.write(record.mkString.getBytes)
          }
          def close(errorOrNull:Throwable):Unit={
              fos.close
          }
      })
      .queryName("test")
      .format("foreach")      
      .start()
     query.awaitTermination()
   }
}

注意:
1. .format("foreach").foreach(new ForeachWriter[Row]{}匹配,如果写的是complete的,就没有必要。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值