OAP read parquet

90 篇文章 1 订阅
18 篇文章 1 订阅

spark2.1

FileScanRDD
private def nextIterator(): Boolean = {
...
currentIterator = readFunction(currentFile)
...
}
OptimizedParquetFileFormat
override def buildReaderWithPartitionValues(
      sparkSession: SparkSession,
      dataSchema: StructType,
      partitionSchema: StructType,
      requiredSchema: StructType,
      filters: Seq[Filter],
      options: Map[String, String],
      hadoopConf: Configuration): PartitionedFile => Iterator[InternalRow] = {
      ...
      val reader = new OapDataReaderV1(file.filePath, m, partitionSchema, requiredSchema,
        filterScanners, requiredIds, pushed, oapMetrics, conf, enableVectorizedReader, options,
        filters, context)
      reader.read(file)
      ...
      }
OapDataReaderWriter.scala
override def read(file: PartitionedFile): Iterator[InternalRow] =
{
...
val iter = initialize()
...
}
def fullScan: OapCompletionIterator[Any] = {
      val start = if (log.isDebugEnabled) System.currentTimeMillis else 0
      //initialize  goto here
      val iter = fileScanner.iterator(requiredIds, filters)
      val end = if (log.isDebugEnabled) System.currentTimeMillis else 0

      _totalRows = fileScanner.totalRows()

      logDebug("Construct File Iterator: " + (end - start) + " ms")
      iter
    }
ParquetDataFile
def iterator(
    requiredIds: Array[Int],
    filters: Seq[Filter] = Nil): OapCompletionIterator[Any] = {
    val iterator = context match {
      case Some(c) =>
        // Parquet RowGroupCount can more than Int.MaxValue,
        // in that sence we should not cache data in memory
        // and rollback to read this rowgroup from file directly.
        if (parquetDataCacheEnable &&
          !meta.footer.getBlocks.asScala.exists(_.getRowCount > Int.MaxValue)) {
          addRequestSchemaToConf(configuration, requiredIds)
          //goto here
          initCacheReader(requiredIds, c,
            new VectorizedCacheReader(configuration,
              meta.footer.toParquetMetadata(), this, requiredIds))
        } else {
          addRequestSchemaToConf(configuration, requiredIds)
          initVectorizedReader(c,
            new VectorizedOapRecordReader(file, configuration, meta.footer))
        }
      case _ =>
        addRequestSchemaToConf(configuration, requiredIds)
        initRecordReader(
          new MrOapRecordReader[UnsafeRow](new ParquetReadSupportWrapper,
            file, configuration, meta.footer))
    }
    iterator.asInstanceOf[OapCompletionIterator[Any]]
  }

VectorizedCacheReader.scala
protected def initializeMetas(): Unit = {
    this.fileSchema = footer.getFileMetaData.getSchema
    val fileMetadata = footer.getFileMetaData.getKeyValueMetaData
    // init go to here
    val readContext = new ParquetReadSupportWrapper()
      .init(new InitContext(configuration, Collections3.toSetMultiMap(fileMetadata), fileSchema))
    this.requestedSchema = readContext.getRequestedSchema
    val sparkRequestedSchemaString =
      configuration.get(ParquetReadSupportWrapper.SPARK_ROW_REQUESTED_SCHEMA)
    this.sparkSchema = StructType.fromString(sparkRequestedSchemaString)
    val rowGroupMetas = footer.getBlocks.asScala
    this.rowGroupMetaIter = rowGroupMetas.iterator
    for (block <- rowGroupMetas) {
      this.totalRowCount += block.getRowCount
    }
  }
ParquetReadSupportWrapper.scala
override def init(context: InitContext): ReadContext = {
    readSupport.init(context)
  }
ParquetReadSupport.scala
override def init(context: InitContext): ReadContext = {
...
val parquetRequestedSchema =
      ParquetReadSupport.clipParquetSchema(context.getFileSchema, catalystRequestedSchema)
...
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
SkyWalking OAP(Open Application Platform)是一个开源的分布式应用性能监控和分析平台。它提供了全面的应用程序性能监控和分析功能,可以帮助开发人员和运维团队实时监控和诊断分布式系统的性能问题。 SkyWalking OAP 的主要特点包括: 1. 分布式追踪:SkyWalking OAP 可以跟踪分布式系统中的请求流程,包括跨进程和跨服务的调用链追踪。通过可视化的调用链图,可以清晰地了解请求在系统中的流转情况,方便排查性能问题。 2. 应用性能监控:SkyWalking OAP 可以监控应用程序的性能指标,包括响应时间、吞吐量、错误率等。通过实时监控这些指标,可以及时发现并解决性能问题,提升应用程序的稳定性和可靠性。 3. 跨语言支持:SkyWalking OAP 支持多种编程语言,包括Java、.NET、Node.js、Python等。无论是使用哪种语言开发的应用程序,都可以通过集成相应的 SkyWalking Agent 来实现性能监控和追踪。 4. 插件化架构:SkyWalking OAP 的架构设计具有良好的可扩展性和灵活性。它采用插件化的方式,可以方便地集成各种数据源和存储后端,满足不同场景下的监控和分析需求。 5. 数据可视化:SkyWalking OAP 提供了丰富的数据可视化功能,可以通过仪表盘、图表等形式展示监控数据。用户可以根据自己的需求自定义仪表盘,并进行数据分析和趋势预测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值