删除了hive的分区文件, 但是hive的分区未删除, 导致spark汇总报错。
解决办法:
show partitions t_name;
hadoop fs -ls /user/hive/warehouse/t_name/end_day=xxx/end_time_hour=xxx
做比较, 将删除的文件对应的分区删除。
alter table t_name drop partition (end_day=20200604,end_time_hour=0);
重新执行spark汇总即可。