Shell脚本定时采集日志数据到HDFS

在一些web站点上,会在页面上用js来监听一些用户操作事件,然后用ajax请求web服务器上的action来记录用户的行为。Web服务器上会有很多日志文件描述了用户的行为。其他的Web服务器也是分别记录自己的日志文件到磁盘。

此时我们需要把这些日志文件汇聚起来,用HDFS进行分析。比如每小时收集一次。

一个解决方案是自己写一个后台程序,然后过滤出合法的日志文件(已经滚动完毕的日志文件),然后用HDFS的Java API上传到HDFS即可。

然后定时执行后台程序即可。

但是Java开发起来比较繁琐。可以使用Shell脚本进行上传。

脚本代码如下:

#!/bin/bash

#set java env
export JAVA_HOME=/root/apps/jdk1.8.0_111
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

#set hadoop env
export HADOOP_HOME=/root/apps/hadoop-2.7.3
export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH


#   1、先将需要上传的文件移动到待上传目录
#   2、在讲文件移动到待上传目录时,将文件按照一定的格式重名名
#       /export/software/hadoop.log1   /export/data/click_log/xxxxx_click_log_{date}


#日志文件存放的目录
log_src_dir=/root/logs/log/

#待上传文件存放的目录
log_toupload_dir=/root/logs/toupload/

#如果文件夹不存在,创建文件夹
if [ ! -d "$log_toupload_dir" ]; then
  mkdir $log_toupload_dir
fi


#日志文件上传到hdfs的根路径
hour=`date +%Y_%m_%d_%H`
hdfs_root_dir=/data/clickLog/$hour/
echo $hdfs_root_dir

#创建HDFS上不存在的目录
create_hdfs_not_exist_directory() {
    hadoop fs -test -e $hdfs_root_dir

    if [ $? -eq 0 ] ;then
        echo 'Directory exist'
    else
        hadoop fs -mkdir -p $hdfs_root_dir
        echo 'Directory '$hdfs_root_dir' created'  
    fi
}

create_hdfs_not_exist_directory

#打印环境变量信息
echo "envs: hadoop_home: $HADOOP_HOME"


#读取日志文件的目录,判断是否有需要上传的文件
echo "log_src_dir:"$log_src_dir
ls $log_src_dir | while read fileName
do
    if [[ "$fileName" == access.log.* ]]; then
    # if [ "access.log" = "$fileName" ];then
        date=`date +%Y_%m_%d_%H_%M_%S`
        #将文件移动到待上传目录并重命名
        #打印信息
        echo "moving $log_src_dir$fileName to $log_toupload_dir"xxxxx_click_log_$fileName"$date"
        mv $log_src_dir$fileName $log_toupload_dir"xxxxx_click_log_$fileName"$date
        #将待上传的文件path写入一个列表文件willDoing
        echo $log_toupload_dir"xxxxx_click_log_$fileName"$date >> $log_toupload_dir"willDoing."$date
    fi

done
#找到列表文件willDoing
ls $log_toupload_dir | grep will |grep -v "_COPY_" | grep -v "_DONE_" | while read line
do
    #打印信息
    echo "toupload is in file:"$line
    #将待上传文件列表willDoing改名为willDoing_COPY_
    mv $log_toupload_dir$line $log_toupload_dir$line"_COPY_"
    #读列表文件willDoing_COPY_的内容(一个一个的待上传文件名)  ,此处的line 就是列表中的一个待上传文件的path
    cat $log_toupload_dir$line"_COPY_" |while read line
    do
        #打印信息
        echo "puting...$line to hdfs path.....$hdfs_root_dir"
        hadoop fs -put $line $hdfs_root_dir
    done    
    mv $log_toupload_dir$line"_COPY_"  $log_toupload_dir$line"_DONE_"
done
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值