问题引入
数据分析师小A接到需求,需要统计当日各个省份20岁以下的日活跃用户数(去重统计user_id,即UV)
现有一个Hive表存储着用户行为数据
列 | 描述 |
---|---|
user_id | 用户id |
nickname | 昵称 |
age | 年龄 |
province | 省份 |
url | 访问地址 |
access_time | 访问时间 |
device_id | 用户手机设备id |
小A很顺其自然的写出这段SQL:
select
province,
count(distinct user_id) as uv
from
user_behaviour_trace_info
where
access_time = '今天' and age < 20
group by
province
立马提交SQL开始执行任务,一顿操作猛如虎,一看时长十点五(小时)
心想不愧是用户行为数据,数据量居然这么大?那让我们看看任务各个Task的执行耗时:
以下三个JobHistory截图属于另一个select count(distinct)数据倾斜任务,具有代表意义
我们可以观察到
- 任务整体耗时:10小时11分钟:
- Map Task 平均耗时:1分16秒
- Reduce Task 平均耗时:1分59秒
任务执行时间长,MR Task 平均耗时短,极有可能是出现了数据倾斜!
那我们继续看看Map Task的执行情况,按Map Task耗时倒序排序
Map Task最长耗时为2分49秒,而且整体看起来运行耗时相差不大,问题不在Map阶段
接下来看看Reduce阶段,按Reduce Task耗时倒序排序