一、Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目,最新的版本是1.8.0。
二、列式存储和行式存储相比有哪些优势呢?
1、可以跳过不符合条件的数据,只读取需要的数据,降低IO数据量。
2、压缩编码可以降低磁盘存储空间。由于同一列的数据类型是一样的,可以使用更高效的压缩编码(例如Run Length Encoding和Delta Encoding)进一步节约存储空间。
3、只读取需要的列,支持向量运算,能够获取更好的扫描性能
package com.etc;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.sql.DataFrame;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SQLContext;
import java.util.List;
/**
* @author: fengze
* @description:
* Parquet数据源之使用编程方式加载数据
*/
public class ParquetLoadData {
public static void main(String[] args) {
SparkConf conf = new SparkConf()
.setAppName("ParquetLoadData")
.setMaster("local");
JavaSparkContext sc = new JavaSparkContext(conf);
SQLContext sqlContext = new SQLContext(sc);
// 读取Parquet文件中的数据,创建一个DataFrame
DataFrame userDf = sqlContext.read().parquet("D:\\文档\\users.parquet");
//将DataFrame注册为临时表,然后使用SQL查询需要的数据
userDf.registerTempTable("user");
DataFrame sql = sqlContext.sql("select * from user");
// 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来
JavaRDD<String> map1 = sql.javaRDD().map(new Function<Row, String>() {
@Override
public String call(Row row) throws Exception {
return "Name:" + row.getString(0);
}
});
List<String> collect = map1.collect();
for (String username : collect) {
System.out.println(username);
}
}
}
复制代码
重点:
- sqlContext.read().parquet(path)
- List map = sql.javaRDD().map(new Fuction).collect();取到该 行 的第一位数值,最后将List数组遍历得结果。