#!/bin/bash
##先定义日期变量
day=`date --date="$1" +%Y-%m-%d`
##显示日期
echo $day
##使用一个文件来存放表名(这里是放在tables文件里的)
table=hive/tables
##如果原先就存在这个sql文件就删去
rm -rf ./hive_load.sql
##设置加载之前预设置,database里面是sql,比如这里是放的use abc ;set hive.exec.dynamic.partition.mode=nonstrict;set hive.exec.dynamic.partition=true;
cat conf/database >>./hive_load.sql
echo $table
for line in `cat $table`
do
path="/data/abc/logs/$day/${line}"
##判断是否路径在hadoop中是存在的,-e 检查文件是否存在。如果存在则返回0
hadoop fs -test -e $path
##$? 执行上一个指令的返回值
if [ $? -eq 0 ] ;then
HQL="load data inpath '${path}' OVERWRITE into table ${line} partition(ds='${day}"
echo $HQL>>./hive_load.sql
else
echo " ${path} is not exist"
fi
done
##运行sql
hive -f ./hive_load.sql