Shell脚本结合Hive自动分析日志信息

Nginx的日志信息很多都是用时间进行区分的,比如下面的日志信息

Shell脚本结合Hive自动分析日志信息

 

可以按照这样的数据建立分区表:二级分区表

建立数据库

Shell脚本结合Hive自动分析日志信息

 

创建数据表

create table load_dynamic_table (

id string,

url string,

referer string,

keyword string,

type string,

guid string,

pageId string,

moduleId string,

linkId string,

attachedInfo string,

sessionId string,

trackerU string,

trackerType string,

ip string,

trackerSrc string,

cookie string,

orderCode string,

trackTime string,

endUserId string,

firstLink string,

sessionViewNo string,

productId string,

curMerchantId string,

provinceId string,

cityId string,

fee string,

edmActivity string,

edmEmail string,

edmJobId string,

ieVersion string,

platform string,

internalKeyword string,

resultSum string,

currentPage string,

linkPosition string,

buttonPosition string

)partitioned by(date string,hour string)

row format delimited fields terminated by '\t';

创建表

Shell脚本结合Hive自动分析日志信息

 

将之前的数据重新命名下

(昨天凌晨3点、4点、5点的数据)

cp data1 2019122103.log

cp data1 2019122104.log

cp data1 2019122105.log

Shell脚本结合Hive自动分析日志信息

 

创建脚本:

vim load_to_hive.sh

#!/bin/bash

YESTERDAY=`date -d '-1 days' +%Y%m%d`

#定义日志数据目录,文件名称是在变化,不能写死

ACCESS_LOG_DIR=/data/test/$YESTERDAY .log

定义HIVE_HOME

HIVE_HOME=/opt/bigdata/hive-0.13.1-cdh5.3.6

for FILE in `ls $ACCESS_LOG_DIR`

do

DAY=${FILE:0:8}

HOUR=${FILE:8:2}

#echo " ${DAY} -- ${HOUR} "


$HIVE_HOME/bin/hive -e " load data local inpath '$ACCESS_LOG_DIR/$FILE' into table load_hive.load_dynamic_table partition(date='${DAY}',hour='${HOUR}') "

done
$HIVE_HOME/bin/hive -e "show partitions load_hive. load_dynamic_table "

$HIVE_HOME/bin/hive -e "show partitions load_hive. load_dynamic_table "

Shell脚本结合Hive自动分析日志信息

 

我们先debug运行下脚本

sh -x load load_to_hive.sh

有错误

Shell脚本结合Hive自动分析日志信息

 

我们数据准备的有问题,做下更改

mkdir 20191222

Shell脚本结合Hive自动分析日志信息

 

cp data1 20191222/2019122201.log

cp data1 20191222/2019122202.log

cp data1 20191222/2019122203.log

Shell脚本结合Hive自动分析日志信息

 

更改下脚本

Shell脚本结合Hive自动分析日志信息

 

重新debug,没有问题了

Shell脚本结合Hive自动分析日志信息

 

Shell脚本结合Hive自动分析日志信息

 

查看分区情况:

show partitions load_hive.load_dynamic_table;

Shell脚本结合Hive自动分析日志信息

 

也可以-f的方式加载数据,创建一个sql文件

load data local inpath '${hiveconf:log_dir}/${hiveconf:file_path}' into table load_hive.load_dynamic_table partition(date='${hiveconf:DAY}',hour='${hiveconf:HOUR}')

Shell脚本结合Hive自动分析日志信息

 

修改我们的脚本

$HIVE_HOME/bin/hive --hiveconf log_dir=$ACCESS_LOG_DIR --hiveconf file_path=$FILE --hiveconf DAY=$DAY --hiveconf HOUR=$HOUR -f "/data/test/load_data.sql"

Shell脚本结合Hive自动分析日志信息

 

继续debug

sh -x load_to_hive.sh

Shell脚本结合Hive自动分析日志信息

 

Shell脚本结合Hive自动分析日志信息

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值