最近有同事在对包含很多分区的表做删除操作(drop table)时,报了OutOfMemory的异常,在hive中无法删除。
通过查找资料发现,是个BUG。据说在0.10.0版本进行了修复,详见:https://issues.apache.org/jira/browse/HIVE-2907
不过我将尝试下自己修正这个问题。
解决方案:
通过对此issue的了解,因为hive默认的heap大小为256MB,我将启动RunJar时,heap大小设置为512MB,这样就可以解决此问题。
不过我还是会对这段代码的修改进行更进一步的了解。
备注:
修改heap的大小在hive-config.sh文件里。
位置如下: