Apache Hive DlLPAR

启用hive动态分区

只需在hive会话中设置两个参数

set hive.exec.dynamic.partition=true;
set hive.exec.dynamic.partition.mode=nonstrict;
  1. 创建动态分区表
set hive.exec.dynamic.partition=true;
set hive.exec.dynamic.partition.mode=nonstrict; 
SET hive.exec.max.dynamic.partitions=100000;
SET hive.exec.max.dynamic.partitions.pernode=100000;
create table a2data.userid_day_rep
(...)
partitioned by
(...) 
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' Stored AS TEXTFILE;
  1. 插入数据
insert into table userid_day_rep  partition (sign_platform)
select 
*
from  user_day;

报错解决方案

[Fatal Error] total number of created files now is 100315, which exceeds 100000. Killing the job

错误原因:

错误原因:
这个错误的原因是因为Hive对创建文件的总数有限制(hive.exec.max.created.files),
默认是100000个,而这个SQL在运行的时候每个Map都会创建76个文件,
对应了每个分区,
所以这个SQL总共会创建2163 * 76 = 164388个文件,运行中肯定会出现上述的异常。
为了能够成功地运行上述的SQL,
最简单的方法就是加大hive.exec.max.created.files参数的设置。
但是这有个问题,这会导致在iteblog中产生大量的小文件,
因为iteblog_tmp表的数据就570多G,
那么平均每个文件的大小=570多G / 164388 = 3.550624133148405MB,
可想而知,十万多个这么小的小文件对Hadoop来说是多么不好。
那么有没有好的办法呢?有!
我们可以将dt相同的数据放到同一个Reduce处理,
这样最多也就产生76个文件,
将dt相同的数据放到同一个Reduce可以使用DISTRIBUTE BY dt实现!!!

修改之后

hive> insert overwrite table test partition(dt)
    > select * from userid_day_rep
    > DISTRIBUTE BY dt;

能不能将570G的数据均匀的分配给Reduce呢?可以!

我们可以使用DISTRIBUTE BY rand()将数据随机分配给Reduce,
这样可以使得每个Reduce处理的数据大体一致。
我设定每个Reduce处理5G的数据,对于570G的数据总共会起110左右的Reduces.
再次修改如下:

set hive.exec.dynamic.partition.mode=nonstrict
hive> set hive.exec.reducers.bytes.per.reducer=5120000000;
hive> insert overwrite table test partition(dt)
    > select * from iteblog_tmp
    > DISTRIBUTE BY rand();
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器学习模型机器
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值