背景
在使用impala drop表然后新建该表再插入数据时,发现以前的数据还在里面。
drop和create过程都没有报错。。。
实际分析发现,drop表后再select报错,报表不存在,但实际应该是删除了映射关系,但是hdfs上的文件并没有删掉,然后新建表后,再插入数据,数据又写入到了以前的文件里,造成该现象。
处理方案
impala 在执行 drop table 操作时,需要把文件移到到 hdfs 的回收站,所以需要创建一个hdfs的目录 /user/impala,并将其设置为impala 用户可写。
hadoop fs -mkdir -p /user/impala
hadoop fs -chown impala /user/impala
1053

被折叠的 条评论
为什么被折叠?



