Hive08:Hive的进阶操作04之综合案例:外部分区表和视图实现使用SQL按天统计每天使用Flume采集到HDFS上数据的相关指标

本文介绍了如何利用Hive的外部分区表和视图来处理Flume按天采集到HDFS的日志数据。首先,Flume通过execsource、hdfssink等将数据按天存入HDFS,然后建立外部分区表存储原始JSON数据。接着,创建视图解析JSON并提供方便的查询接口。为了应对新数据,编写添加分区的脚本并用crontab定时执行。该方法适合数据量不大、对效率要求不高的场景,若要优化,可以提前清洗JSON数据,提高查询速度。
摘要由CSDN通过智能技术生成

综合案例

接下来我们来看一个综合案例,主要使用外部分区表和视图实现

需求:Flume按天把日志数据采集到HDFS中的对应目录中,使用SQL按天统计每天数据的相关指标
分析一下:
Flume按天把日志数据保存到HDFS中的对应目录中
针对Flume的source可以使用execsource、channel可以使用基于文件的或者内存的,sink使用hdfssink,在hdfssink的path路径中需要使用%Y%m%d获取日期,将每天的日志数据采集到指定的hdfs目录中
这个是我们在前面学习Flume的时候已经讲过的了,这个倒不难

后面就是需要对按天采集的日志数据建表,由于这份数据可能会被多种计算引擎使用,所以建议使用外部表,这样就算我们不小心把表删了,数据也还是在的,不影响其他人使用,还有就是这份数据是按天分目录存储的,在实际工作中,离线计算的需求大部分都是按天计算的,所以在这里最好在表中增加日期这个分区字段,所以最终决定使用外部分区表。

前面FLume采集数据的流程我们就不再演示了,在这我就直接使用之前我们使用hdfs落盘的数据了。
我们之前有一个案例是分类型,分目录,把多种类型的数据存储到不同的目录下

目录结构是这样的,首先是按天,然后是按照类型

hdfs dfs -ls /moreType/20220302

在这里插入图片描述
这里面的数据是json格式的,也是有规律的,如果我们在建表的时候该怎么创建?

{"uid":"861848974414839801","nickname":"mick","usign":"","sex":1,"birthday":"","face":"","big_face":"","email":"abc@qq.com","mobile":"","reg_type":"102","last_login_time":"1494344580","reg_time":"1494344580","last_update_time":"1494344580","status":"5","is_verified":"0","verified_info":"","is_seller":"0","level":1,"exp":0,"anchor_level":0,"anchor_exp":0,"os":"android","timestamp":1494344580,"type":"userInfo"}

在这里插入图片描述
针对json格式的数据建表的时候没办法直接把每个字段都定义出来
通常的解决方案是先写一个mapreduce数据清洗任务,只需要map阶段就行了,对json格式的数据进行解析,把里面每个字段的值全部解析出来,拼成一行,字段值中间可以使用逗号分割,然后再基于解析之后的数据在hive中建表就可以了。

这个解决方案没有任何问题,如果硬要挑问题,那就只能鸡蛋里面挑骨头,说这个解决方案比较麻烦,还需要写MapReduce,不够优雅了。

我们开发人员有时候一定要懒,这个懒不是说什么都不敢,而是要想办法把复杂的问题简单化,这个懒可以督促你去找出最方便快捷的解决方案。

在这里我们需要提前涉及一个函数get_json_object,这个函数可以从json格式的数据中解析出指定字段
所以我的思路是这样的,
先基于原始的json数据创建一个外部分区表,表中只有一个字段,保存原始的json字符串即可,分区字段是日期和数据类型

然后再创建一个视图,视图中实现的功能就是查询前面创建的外部分区表,在查询的时候会解析json数据中的字段
这样就方便了,我们以后查询直接查视图就可以查询出我们需要的字段信息了,并且一行代码都不需要写。

下面开始建表

create external table ex_par_more_type(
log string
)partitioned by(dt string,d_type string)
row format delimited
fields terminated by ‘\t’
location ‘/moreType’;

在这里插入图片描述

加载数据【注意,此时的数据已经通过flume采集到hdfs中了,所以不需要使用load命令了,只需要使用一个alter命令添加分区信息就可以了,但是记得要把那三个子目录都添加进去】
添加分区【注意,这个步骤每天都要做一次】

alter table ex_par_more_type add partition(dt='20220302',d_type='giftRecord') location '/moreType/20220302/giftRecord';
alter table ex_par_more_type add partition(dt='20220302',d_type='userInfo') location '/moreType/20220302/userInfo';
alter table ex_par_more_type add partition(dt='20220302',d_type='videoInfo') location '/moreType/20220302/videoInfo';

在这里插入图片描述
可以先查询一下数据,可以查询出来,说明前面的配置没有问题。

select * from ex_par_more_type where dt = '20220302' and d_type = 'giftRecord';

在这里插入图片描述
接下来就是重点了,需要创建视图,在创建视图的时候从数据中查询需要的字段信息
注意了,由于这三种类型的数据字段是不一样的,所以创建一个视图还搞不定,只能针对每一种类型创建一个视图。
如果这三种类型的数据字段都是一样的,就可以只创建一个视图了。

注意:由于字段数量太多,在这里针对每个每种数据只获取里面的前4个字段

giftRecord类型的视图

create view gift_record_view as select get_json_object(log,'$.send_id') as send_id
,get_json_object(log,'$.good_id') as good_id
,get_json_object(log,'$.video_id') as video_id
,get_json_object(log,'$.gold') as gold
,dt
from ex_par_more_type
where d_type = 'giftRecord';

在这里插入图片描述

userInfo类型的视图

create view user_info_view as select get_json_object(log,'$.uid') as uid
,get_json_object(log,'$.nickname') as nickname
,get_json_object(log,'$.usign') as usign
,get_json_object(log,'$.sex') as sex
,dt
from ex_par_more_type
where d_type = 'userInfo';

在这里插入图片描述

videoInfo类型的视图

create view video_info_view as select get_json_object(log,'$.id') as id
,get_json_object(log,'$.uid') as uid
,get_json_object(log,'$.lat') as lat
,get_json_object(log,'$.lnt') as lnt
,dt
from ex_par_more_type 
where d_type = 'videoInfo';

在这里插入图片描述

通过这三个视图查询数据

注意:此时在SQL后面加不加日期都是一样的,因为现在只有这一天的数据

select * from gift_record_view where dt = '20220302';
select * from user_info_view where dt = '20220302';
select * from video_info_view where dt = '20220302';

在这里插入图片描述
后面想要查询数据就直接通过视图,指定日期查询就可以了,不指定日期的话会查询这个类型下面所有的数据。

其实到这里还没完,因为后期flume每天都会采集新的数据上传到hdfs上面,所以我们需要每天都做一次添加分区的操作。
这个操作肯定是要写到脚本中定时调度的,否则每天手工执行还不疯了

开发脚本,脚本名称为addPartition.sh

vi addPartition.sh

脚本内容如下:

#!/bin/bash
# 每天凌晨1点定时添加当天日期的分区
if [ "a$1" = "a" ]
then
	dt=`date +%Y%m%d`
else
	dt=$1
fi
# 指定添加分区操作
hive -e "
alter table ex_par_more_type add partition(dt='${dt}',d_type='giftRecord') location '/moreType/${dt}/giftRecord';
alter table ex_par_more_type add partition(dt='${dt}',d_type='userInfo') location '/moreType/${dt}/userInfo';
alter table ex_par_more_type add partition(dt='${dt}',d_type='videoInfo') location '/moreType/${dt}/videoInfo';
"

注意:此脚本不能重复执行,如果指定的分区已存在,重复添加分区会报错,为了避免报错,可以这样修改一下,添加if not exists

alter table ex_par_more_type add partition(dt='20220302',d_type='videoInfo');
alter table ex_par_more_type add if not exists partition(dt='20220302',d_type='videoInfo');

在这里插入图片描述
修改脚本

vi addPartition.sh

脚本内容如下:

#!/bin/bash
# 每天凌晨1点定时添加当天日期的分区
if [ "a$1" = "a" ]
then
	dt=`date +%Y%m%d`
else
	dt=$1
fi
# 指定添加分区操作
hive -e "
alter table ex_par_more_type add if not exists partition(dt='${dt}',d_type='giftRecord') location '/moreType/${dt}/giftRecord';
alter table ex_par_more_type add if not exists partition(dt='${dt}',d_type='userInfo') location '/moreType/${dt}/userInfo';
alter table ex_par_more_type add if not exists partition(dt='${dt}',d_type='videoInfo') location '/moreType/${dt}/videoInfo';
"

在执行脚本之前把之前添加的分区先删一下

show partitions ex_par_more_type;

alter table ex_par_more_type drop partition(dt='20220302',d_type='giftRecord');

alter table ex_par_more_type drop partition(dt='20220302',d_type='userInfo');

alter table ex_par_more_type drop partition(dt='20220302',d_type='videoInfo');

show partitions ex_par_more_type;

在这里插入图片描述
执行添加分区脚本

sh addPartition.sh

在这里插入图片描述
再查看分区信息,这样就可以了

show partitions ex_par_more_type;

在这里插入图片描述

这个脚本需要配置一个定时任务,每天凌晨1点执行,可以使用crontab

00 01 * * * root /bin/bash /data/soft/hivedata/addPartition.sh >> /data/soft/hivedata/addPartition.log

这就是一个完整的开发流程,针对需要多次执行的sql一般都是需要配置到脚本中使用hive -e去执行的。

最后再来分析一下,针对这个需求如果数据量不算太大,并且大家对计算效率要求也不算太高的话是没有问题的。

因为现在这种逻辑是每次在查询视图的时候会对原始数据进行解析再计算,如果每天的数据量达到几百G,甚至上T的时候,查询效率就有点低了,大致需要10~20分钟左右,每次查询都是这样,不管你查询多少次,,每次都要根据原始数据进行解析。

如果感觉这个时间不能接受,想要优化,那只能从源头进行优化了,就是先对原始的json数据进行清洗,把需要的字段解析出来,存储到hdfs中,再建表,这个时候就可以提高效率了,因为对原始数据解析的过程只需要一次,后期计算的时候都是对解析过的数据直接计算了,省略了解析步骤,效率可以提升一倍以上。

所以这个就要综合实际情况去考虑了,选便捷性还是选效率

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

做一个有趣的人Zz

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值