java读写parquet_列式存储格式之parquet读写

ParquetFileReader读取,只需虚拟haddop列实体package com.kestrel;

/**

* @Auther: 12640

* @Date: 2021/1/1 15:13

* @Description:

*/

public class TableHead {

/**

* 列名

*/

private String name;

/**

* 存储 列的 数据类型

*/

private String type;

/**

* 所在列

*/

private Integer index;

public String getType() {

return type;

}

public void setType(String type) {

this.type = type;

}

public String getName() {

return name;

}

public void setName(String name) {

this.name = name;

}

public Integer getIndex() {

return index;

}

public void setIndex(Integer index) {

this.index = index;

}

}

2.parquet 实体类package com.kestrel;

import java.util.List;

/**

* @Auther: 12640

* @Date: 2021/1/1 15:14

* @Description:

*/

public class TableResult {

/**

* 解析文件的表头信息 暂时只对 arrow,csv 文件有效

*/

private List< TableHead> columns;

/**

* 数据内容

*/

private List> data;

public List< TableHead> getColumns() {

return columns;

}

public void setColumns(List< TableHead> columns) {

this.columns = columns;

}

public List> getData() {

return data

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Java读写Parquet文件可以使用Apache Parquet库。下面是一个简单的示例代码,演示了如何使用Java读取和写入Parquet文件: 1. 首先,确保你已经添加了Apache Parquet库的依赖。可以在Maven项目中添加以下依赖项: ```xml <dependency> <groupId>org.apache.parquet</groupId> <artifactId>parquet-avro</artifactId> <version>1.12.0</version> </dependency> ``` 2. 读取Parquet文件: ```java import org.apache.avro.generic.GenericRecord; import org.apache.hadoop.fs.Path; import org.apache.parquet.avro.AvroParquetReader; import org.apache.parquet.hadoop.ParquetReader; public class ParquetReaderExample { public static void main(String[] args) { try { Path path = new Path("path/to/parquet/file.parquet"); ParquetReader<GenericRecord> reader = AvroParquetReader.<GenericRecord>builder(path).build(); GenericRecord record; while ((record = reader.read()) != null) { // 处理每一行数据 System.out.println(record); } reader.close(); } catch (Exception e) { e.printStackTrace(); } } } ``` 3. 写入Parquet文件: ```java import org.apache.avro.Schema; import org.apache.avro.generic.GenericData; import org.apache.avro.generic.GenericRecord; import org.apache.hadoop.fs.Path; import org.apache.parquet.avro.AvroParquetWriter; import org.apache.parquet.hadoop.ParquetWriter; import org.apache.parquet.hadoop.metadata.CompressionCodecName; public class ParquetWriterExample { public static void main(String[] args) { try { Path path = new Path("path/to/output/file.parquet"); Schema schema = new Schema.Parser().parse(new File("path/to/schema.avsc")); ParquetWriter<GenericRecord> writer = AvroParquetWriter.<GenericRecord>builder(path) .withSchema(schema) .withCompressionCodec(CompressionCodecName.SNAPPY) .build(); GenericRecord record = new GenericData.Record(schema); // 设置record的字段值 record.put("field1", "value1"); record.put("field2", 123); writer.write(record); writer.close(); } catch (Exception e) { e.printStackTrace(); } } } ``` 请注意,上述示例中的路径需要根据实际情况进行替换。另外,读取Parquet文件时,你可能需要根据实际的Avro模式对读取的记录进行处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值