Parquet的timestamp类型转为long

由于sparksql使用parquet文件存储数据时,有个默认参数spark.sql.parquet.int96AsTimestamp为true,即为保持精度,使用96位的int来存储Timestamp类型,这就为使用java代码解析Timestamp类型带来了麻烦,下面为转换工具类(代码为从github上找的,不是自己写的)。

package com.test.util;

import java.util.concurrent.TimeUnit;

import org.apache.parquet.io.api.Binary;

import com.google.common.primitives.Ints;
import com.google.common.primitives.Longs;

public class ParquetTimestampUtils {
	
	/**
	 * julian date的偏移量,2440588相当于1970/1/1
	 */
	private static final int JULIAN_EPOCH_OFFSET_DAYS = 2440588;
    private static final long MILLIS_IN_DAY = TimeUnit.DAYS.toMillis(1);
    private static final long NANOS_PER_MILLISECOND = TimeUnit.MILLISECONDS.toNanos(1);

    private ParquetTimestampUtils() {}

    /**
     * Returns GMT timestamp from binary encoded parquet timestamp (12 bytes - julian date + time of day nanos).
     *
     * @param timestampBinary INT96 parquet timestamp
     * @return timestamp in millis, GMT timezone
     */
    public static long getTimestampMillis(Binary timestampBinary)
    {
        if (timestampBinary.length() != 12) {
        	return 0;
//            throw new PrestoException(HIVE_BAD_DATA, "Parquet timestamp must be 12 bytes, actual " + timestampBinary.length());
        }
        byte[] bytes = timestampBinary.getBytes();

        // little endian encoding - need to invert byte order
        long timeOfDayNanos = Longs.fromBytes(bytes[7], bytes[6], bytes[5], bytes[4], bytes[3], bytes[2], bytes[1], bytes[0]);
        int julianDay = Ints.fromBytes(bytes[11], bytes[10], bytes[9], bytes[8]);

        return julianDayToMillis(julianDay) + (timeOfDayNanos / NANOS_PER_MILLISECOND);
    }

    private static long julianDayToMillis(int julianDay)
    {
        return (julianDay - JULIAN_EPOCH_OFFSET_DAYS) * MILLIS_IN_DAY;
    }
}



使用的时候

long date = ParquetTimestampUtils.getTimestampMillis(record.getInt96("CREATE_TIME", 0));



  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要修改Parquet文件的字段类型,需要使用Parquet文件的Schema定义。你需要先读取该文件的Schema,然后创建一个新的Schema,并将需要修改的字段的数据类型更改为所需类型。然后,你可以使用Spark或其他Parquet文件读写库将原始Parquet文件中的数据读取到DataFrame中,使用新的Schema来重新写入到另一个Parquet文件中。 以下是一个使用PySpark的示例代码,演示如何将Parquet文件中的一个字段类型从字符串类型更改为整数类型: ``` from pyspark.sql.types import StructType, StructField, IntegerType # 读取Parquet文件的Schema old_schema = spark.read.parquet("path/to/parquet/file").schema # 创建新的Schema new_schema = StructType([ StructField("field1", IntegerType(), True), StructField("field2", old_schema["field2"].dataType, True), StructField("field3", old_schema["field3"].dataType, True), # 将原始的字符串类型的字段 "field4" 更改为整数类型 StructField("field4", IntegerType(), True), StructField("field5", old_schema["field5"].dataType, True) ]) # 从原始Parquet文件中读取数据到DataFrame中 df = spark.read.schema(old_schema).parquet("path/to/parquet/file") # 使用新的Schema重新写入到Parquet文件中 df.select([col(c).cast(new_schema[c].dataType) for c in df.columns]).write.parquet("path/to/new/parquet/file") ``` 在这个示例中,我们首先读取原始Parquet文件的Schema,然后创建了一个新的Schema,并将需要修改的字段 "field4" 的数据类型更改为整数类型。然后,我们使用Spark读取原始Parquet文件的数据,并使用新的Schema重新写入到新的Parquet文件中。注意,在写入新的Parquet文件时,我们使用了 `select` 函数来将DataFrame中的所有列转换为新的Schema中定义的数据类型

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值