Structured Streaming之outputMode(complete和append)区别说明

1.complete需要聚合,并将原先批次的数据和本次批次的数据一起聚合,而append是不能聚合的

2.若用append替换complete代码演示:

def main(args: Array[String]): Unit = {
        val spark = SparkSession.builder().master("local[1]").getOrCreate()
        import spark.implicits._
        val wordCounts  = spark.readStream.text("D:\\tmp\\streaming\\struct")
            .as[String].flatMap(_.split(" "))
            .groupBy("value").count()


        val query = wordCounts.writeStream
                .foreach(new TestForeachWriter())
            .outputMode("complete")//complete  append
            .trigger(ProcessingTime("10 seconds"))
            .start()
        query.awaitTermination()

    }
//正常运行,若将complete改为append,将报以下错误
org.apache.spark.sql.AnalysisException: Append output mode not supported when there are streaming aggregations on streaming DataFrames/DataSets;;

3.若用complete替换append代码演示:

def main(args: Array[String]): Unit = {
        val spark = SparkSession.builder().master("local[1]").getOrCreate()
        import spark.implicits._
        val wordCounts  = spark.readStream.text("D:\\tmp\\streaming\\struct")
                    .as[String].flatMap(_.split(" ")).map(T1(_,1)).toDF()

        val query = wordCounts.writeStream
                .foreach(new TestForeachWriter())
            .outputMode("append")//complete  append
            .trigger(ProcessingTime("10 seconds"))
            .start()
        query.awaitTermination()

    }
    case class T1(value:String,num:Int)
//若用complete替换append,将报以下错误
org.apache.spark.sql.AnalysisException: Complete output mode not supported when there are no streaming aggregations on streaming DataFrames/Datasets;;

4. 源码:

/**
   * Specifies how data of a streaming DataFrame/Dataset is written to a streaming sink.
   *   - `append`:   only the new rows in the streaming DataFrame/Dataset will be written to
   *                 the sink
   *   - `complete`: all the rows in the streaming DataFrame/Dataset will be written to the sink
   *                 every time these is some updates
   *
   * @since 2.0.0
   */
  def outputMode(outputMode: String): DataStreamWriter[T] = {
    this.outputMode = outputMode.toLowerCase match {
      case "append" =>
        OutputMode.Append
      case "complete" =>
        OutputMode.Complete
      case _ =>
        throw new IllegalArgumentException(s"Unknown output mode $outputMode. " +
          "Accepted output modes are 'append' and 'complete'")
    }
    this
  }

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Spark Structured Streaming 中的 AppendComplete、Update 三种输出模式与前面所提到的 AI 对话系统中的输出模式有类似之处,但是在具体实现和使用上有所不同。 1. Append 模式:该模式下,只有新增的数据才会被输出,已有数据不会被更新。在这种模式下,输出结果只包含新的数据,不包含历史数据。该模式适用于数据不需要更新的场景,比如对于一组计算的结果,每次只需要使用最新的结果即可。 2. Complete 模式:该模式下,所有的数据都会被输出,而且输出结果会包含历史数据和新数据的计算结果。在这种模式下,Spark会全部计算完所有数据后进行输出。该模式适用于需要输出完整结果的场景,比如需要输出各个时间段的交易总额。 3. Update 模式:该模式下,只有更新的数据会被输出,历史数据不会被输出。在这种模式下,Spark会在每个批次之间进行数据的增量计算,并且只输出新增的和修改过的数据。该模式适用于需要实时更新结果的场景,比如需要实时监控某个指标的变化。 总的来,三种模式各有优缺点,可以根据具体的场景和需求来选择使用。Append 模式适用于数据无需更新的情况,Complete 模式适用于需要输出完整结果的场景,Update 模式适用于需要实时监控变化的场景。同时,不同的输出模式对计算性能和资源消耗也有所不同,需要综合考虑。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值