1、报错:
Failed with exception java.io.IOException:java.lang.RuntimeException: hdfs://emr-header-1.cluster-212710:9000/warehouse/hdcdt/ods/ods_act_activity_info/dt=2020-12-10/part-m-00000 is not a Parquet file. expected magic number at tail [80, 65, 82, 49] but found [46, 51, 49, 10]
2、原因:
创建Hive表时指定了文件存储格式是parquet,但是导入的数据不是parquet格式。
3、解决:
从官网找到了唯一给的一种方式:
先创建一张临时的默认格式(TextFile)表,并将HDFS上的数据导入该表,之后再将将临时表的数据导入到parquet表。
SET hive.exec.compress.output=true;
INSERT OVERWRITE TABLE raw_sequence SELECT * FROM raw;
5152

被折叠的 条评论
为什么被折叠?



