使用hadoop和hive来进行应用的日志数据分析

该博客介绍了一种日志数据分析架构,通过syslog-ng收集日志,storm做实时统计,rsync发送日志到hadoop和hive进行非实时分析。详细流程包括hadoop和hive的安装配置,hive中创建表,加载日志数据,以及在hive上执行查询操作。
摘要由CSDN通过智能技术生成

整个架构流程的背景是:

1、各个应用产生日志打印约定格式的syslog,然后在服务器端部署syslog-ng server做日志的统一收集。

2、在syslog-ng server所在的服务器做日志文件的分类然后发送日志消息给storm做实时流数据统计。

3、同时每日凌晨启动rsync服务将前一天的日志文件发送到hadoop和hive服务器做非实时数据分析


使用hadoop和hive来进行应用的日志数据分析的详细流程:

1、安装hadoop

hadoop的安装以及配置在我的文章中有详细的描述:

http://blog.csdn.net/jsjwk/article/details/8923999

2、安装hive

hive的安装非常简单,只需要下载安装包:

wget http://mirrors.cnnic.cn/apache/hive/hive-0.10.0/hive-0.10.0.tar.gz

然后解压后,修改一点点配置文件用于连接hadoop的配置即可。


3、在hive中创建表

    /**
     * 根据日期来创建hive的邮件日志表
     * @param date
     * @return
     * @throws SQLException
     */
    public String createTable(Calendar cal) throws SQLException
    {
	String tableName = getTableName(cal.getTime());
	StringBuilder sql = new StringBuilder();
        sql.append("cre
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值