Structured Streaming如何实现Parquet存储目录按时间分区

缘由

StreamingPro现在支持以SQL脚本的形式写Structured Streaming流式程序了: mlsql-stream。不过期间遇到个问题,我希望按天进行分区,但是这个分区比较特殊,就是是按接收时间来落地进行分区,而不是记录产生的时间。

当然,我可以新增一个时间字段,然后使用partitionBy动态分区的方式解决这个问题,但是使用动态分区有一个麻烦的地方是,删除数据并不方便。流式程序会不断地写入数据,我们需要将七天前的数据清理掉,因为采用partitionBy后,parquet的meta信息是会在同一个目录里,然后里面的文件记录了当前批次数据分布在那些文件里。这样导致删除数据不方便了。

所以最好的方式是类似这样的:

set today="select current_date..." options type=sql;
load kafka9....;

save append table21  
as parquet.`/tmp/abc2/hp_date=${today}` 
options mode="Append"
and duration="10"
and checkpointLocation="/tmp/cpl2";

这种方式的好处就是,删除分区直接删除就可以,坏处是,通过上面的方式,由于Structured Streaming的目录地址是不允许变化的,也就是他拿到一次值之后,后续就固定了,所以数据都会写入到服务启动的那天。

解决方案

解决办法是自己实现一个parquet sink,改造的地方并不多。新添加一个类:

class NewFileStreamSink(
                         sparkSession: SparkSession,
                         _path: String,
                         fileFormat: FileFormat,
                         partitionColumnNames: Seq[String],
                         options: Map[String, String]) extends Sink with Logging {
 // 使用velocity模板引擎,方便实现复杂的模板渲染
  def evaluate(value: String, context: Map[String, AnyRef]) = {
    RenderEngine.render(value, context)
  }

// 将路径获取改成一个方法调用,这样每次写入时,都会通过方法调用
//从而获得一个新值
  def path = {
    evaluate(_path, Map("date" -> new DateTime()))
  }
-- 这些路径获取都需要变成方法
  private def basePath = new Path(path)

  private def logPath = new Path(basePath, FileStreamSink.metadataDir)

  private def fileLog =
    new FileStreamSinkLog(FileStreamSinkLog.VERSION, sparkSession, logPath.toUri.toString)

  private val hadoopConf = sparkSession.sessionState.newHadoopConf()

  override def addBatch(batchId: Long, data: DataFrame): Unit = {
    if (batchId <= fileLog.getLatest().map(_._1).getOrElse(-1L)) {
      logInfo(s"Skipping already committed batch $batchId")
    } else {
      val committer = FileCommitProtocol.instantiate(
        className = sparkSession.sessionState.conf.streamingFileCommitProtocolClass,
        jobId = batchId.toString,
        outputPath = path,
        isAppend = false)

      committer match {
        case manifestCommitter: ManifestFileCommitProtocol =>
          manifestCommitter.setupManifestOptions(fileLog, batchId)
        case _ => // Do nothing
      }

      FileFormatWriter.write(
        sparkSession = sparkSession,
        queryExecution = data.queryExecution,
        fileFormat = fileFormat,
        committer = committer,
        outputSpec = FileFormatWriter.OutputSpec(path, Map.empty),
        hadoopConf = hadoopConf,
        partitionColumnNames = partitionColumnNames,
        bucketSpec = None,
        refreshFunction = _ => (),
        options = options)
    }
  }

  override def toString: String = s"FileSink[$path]"
}

实现sink之后,我们还需要一个DataSource 以便我们能让这个新的Sink集成进Spark里并被外部使用:

package org.apache.spark.sql.execution.streaming.newfile

import org.apache.spark.sql.{AnalysisException, SQLContext}
import org.apache.spark.sql.execution.datasources.parquet.ParquetFileFormat
import org.apache.spark.sql.execution.streaming. Sink
import org.apache.spark.sql.sources.StreamSinkProvider
import org.apache.spark.sql.streaming.OutputMode

class DefaultSource extends StreamSinkProvider {
  override def createSink(sqlContext: SQLContext, parameters: Map[String, String], partitionColumns: Seq[String], outputMode: OutputMode): Sink = {
    val path = parameters.getOrElse("path", {
      throw new IllegalArgumentException("'path' is not specified")
    })
    if (outputMode != OutputMode.Append) {
      throw new AnalysisException(
        s"Data source ${getClass.getCanonicalName} does not support $outputMode output mode")
    }
    new NewFileStreamSink(sqlContext.sparkSession, parameters("path"), new ParquetFileFormat(), partitionColumns, parameters)
  }
}

这个是标准的datasource API。 现在使用时可以这样:

save append table21  
-- 使用jodatime的语法
as parquet.`/tmp/jack/hp_date=${date.toString("yyyy-MM-dd")}` 
options mode="Append"
and duration="10"
-- 指定实现类
and implClass="org.apache.spark.sql.execution.streaming.newfile"
and checkpointLocation="/tmp/cpl2";

是不是很方便?

额外的问题

在spark 2.2.0 之后,对meta文件合并,Spark做了些调整,如果合并过程中,发现之前的某个checkpoint点 文件会抛出异常。在spark 2.2.0则不存在这个问题。其实spark团队应该把这个作为可选项比较好,允许抛出或者保持安静。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在PySpark Structured Streaming实现行转列可以使用`groupBy`和`pivot`函数。以下是一个示例步骤来实现行转列: 1. 首先使用`readStream`函数从流源(如Kafka或文件系统)读取数据流。 2. 通过应用必要的转换操作(如选择、过滤或添加列),将流数据转换为适当的模式。 3. 使用`groupBy`函数将数据按照要转置的列进行分组。 4. 使用`pivot`函数指定需要转置的列和值列,将每个唯一值列转换为新的列。 5. 使用所需的聚合操作(如`count`、`sum`等)对转置后的数据进行聚合操作。 6. 使用`writeStream`将转置后的数据流写入输出源(如Kafka、文件系统等)。 以下是一个示例代码,假设数据包含`name`、`date`和`value`列,我们希望将`name`列转置为多个新列: ```python from pyspark.sql import SparkSession from pyspark.sql.functions import * # 创建SparkSession对象 spark = SparkSession.builder.appName("StructuredStreamingExample").getOrCreate() # 从流源读取数据流 stream_data = spark.readStream.format("kafka").option("kafka.bootstrap.servers", "localhost:9092").load() # 将数据流转换为适当的模式 parsed_data = stream_data.selectExpr("CAST(value AS STRING)").select(from_json("value", "<schema>").alias("data")).select("data.*") # 分组和转置操作 transposed_data = parsed_data.groupBy("date").pivot("name").agg(sum("value")) # 将转置后的数据流写入输出源 query = transposed_data.writeStream.format("kafka").option("kafka.bootstrap.servers", "localhost:9092").start() # 等待流查询完成 query.awaitTermination() ``` 请注意,上述示例代码仅为演示目的,并未提供完整的模式和输出配置。您需要根据您的特定要求进行相应的模式定义和输出配置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值