关于hive报错java.lang.IndexOutOfBoundsException

在执行一个简单query的时候遇到了数组越界的问题。

hive (zba_dwa)> select * from mid_dwa_v_d_cus_al_rns_encap_test where part_id=0 and day_id=28 and prov_id=011 limit 15;

OK

Failed with exception java.io.IOException:java.lang.IndexOutOfBoundsException

由于使用的CDH 5.5.4版本比较旧,不排除有bug的可能, 所以为了更好的解决问题查询如下信息:

1,完整的hive cli日志,请通过以下命令收集并上传cli.log:

hive --hiveconf hive.root.logger=DEBUG,console -e "select * from zba_dwa.mid_dwa_v_d_cus_al_rns_encap_test where part_id=0 and day_id=28 and prov_id=011 limit 15;" > cli.log 2>&1

2, 查询一下建表信息: show create table zba_dwa.mid_dwa_v_d_cus_al_rns_encap_test;

3, 这个语句的返回结果会有多少条记录?用count语句确认一下。

补充一下,数据文件是30.5 G ,算上副本 91.4 G的txt文件 条数count大概有91222998条 目前判断跟文件大小以及条数有关,但是不知道为何会因为这里出现这种情况,以及推荐的单个文件大小

带where条件的语句条数就是91222998

经过分析这个问题很有可能是在 CDH5.5.4 上的一个已知bug[1],当table的txt文档很大时会出现split size越界的情况,这个bung在CDH 5.5.6上被修复了。可以尝试在query执行前设置一下split的size,然后看这个query能否执行成功。

set mapreduce.input.fileinputformat.split.minsize=1073741824;

set mapreduce.input.fileinputformat.split.maxsize=1073741824;

[1] https://issues.apache.org/jira/browse/MAPREDUCE-6635

set mapreduce.input.fileinputformat.split.minsize=1073741824;

set mapreduce.input.fileinputformat.split.maxsize=1073741824;

设置之后并未生效,调大到50g也未成功,猜测是否在这个版本只能先切分这个数据才可以了

再次通过重入切分暂时解决。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值