Hive之自定义拦截器

Hive之自定义拦截器

一、概述

1)案例需求

使用Flume采集服务器本地日志,需要按照日志类型的不同,将不同种类的日志发往不同的分析系统。

2)需求分析

在实际的开发中,一台服务器产生的日志类型可能有很多种,不同类型的日志可能需要发送到不同的分析系统。此时会用到Flume拓扑结构中的Multiplexing结构,Multiplexing的原理是,根据event中Header的某个key的值,将不同的event发送到不同的Channel中,所以我们需要自定义一个Interceptor,为不同类型的event的Header中的value赋予不同的值。
在该案例中,我们以端口数据模拟日志,以sys和user开头的数据模拟不同类型的日志,我们需要自定义interceptor区分不同开头的日志数据,将其分别发往不同的分析系统(Channel),在HDFS上存储为不同文件夹下面。

二、代码开发

(1)创建一个maven项目,并引入以下依赖。

<dependency>
    <groupId>org.apache.flume</groupId>
    <artifactId>flume-ng-core</artifactId>
    <version>1.9.0</version>
</dependency>

(2)定义CustomInterceptor类并实现Interceptor接口。

package com.hadoop.flume;

import org.apache.flume.Context;
import org.apache.flume.Event;
import org.apache.flume.interceptor.Interceptor;

import java.util.List;
import java.util.Map;

public class MyInterceptor implements Interceptor {

    //初始化
    public void initialize() {

    }

    //操作方法

    /**
     * 针对单条数据进行处理(source没有batchsize的时候调用)
     * @param event
     * @return
     */
    public Event intercept(Event event) {

        //1.取出数据
        String s = new String(event.getBody());
        //2.对数据进行切分并判断数据类型
        String logType = s.split(":")[0];
        //3.获取headers的索引信息
        Map<String, String> headers = event.getHeaders();
        //4.向headers中添加数据类型信息
        headers.put("logType",logType);
        //5.返回单个事务
        return event;
    }

    /**
     * 处理一个批次的数据(source有batchesize时调用)
     * 内部调用单个事件的处理方法
     * @param list
     * @return
     */
    public List<Event> intercept(List<Event> list) {

        for (Event event : list) {
            intercept(event);
        }

        return list;
    }

    /**
     * 关闭资源
     */
    public void close() {

    }


    public static class Builder implements org.apache.flume.interceptor.Interceptor.Builder{

        /**
         * 提供flume构建自定义拦截器的对象,flume调用此方法对自定义拦截器进行构建
         * @return
         */
        public Interceptor build() {
            return new MyInterceptor();
        }

        /**
         * 获取配置文件的配置
         * @param context
         */
        public void configure(Context context) {

        }
    }

}

(3)打包上传到Flume家目录下的lib文件夹中

三、启动Flume并测试

  1. 编写Flume脚本
#1、定义agent、source、channel、sink的名称
a1.sources = r1
a1.channels = c1 c2
a1.sinks = k1 k2

#2、描述source
a1.sources.r1.type = netcat
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = 9999

#2.1、描述channel selector
a1.sources.r1.selector.type = multiplexing
#设置channel selector使用header里面那个key
a1.sources.r1.selector.header = logType
#设置header对应的每个value值应该发到哪个channel
a1.sources.r1.selector.mapping.sys = c1
a1.sources.r1.selector.mapping.user = c2

#2.2、描述拦截器
#指定拦截器的名称
a1.sources.r1.interceptors = i1
#指定拦截器的全类名
a1.sources.r1.interceptors.i1.type = com.atguigu.flume.MyInterceptor$Builder

#3、描述channel
#3.1、描述channel1
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 1000

#3.2、描述channel2
a1.channels.c2.type = memory
a1.channels.c2.capacity = 1000
a1.channels.c2.transactionCapacity = 1000

#4、描述sink
#4.1、描述sink1
a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path = hdfs://hadoop102:8020/flume/%{logType}
a1.sinks.k1.hdfs.filePrefix = sys_
a1.sinks.k1.hdfs.rollInterval = 30
a1.sinks.k1.hdfs.rollSize = 0
a1.sinks.k1.hdfs.rollCount = 0
a1.sinks.k1.hdfs.batchSize = 100
a1.sinks.k1.hdfs.fileType = DataStream


#4.2、描述sink2
a1.sinks.k2.type = hdfs
a1.sinks.k2.hdfs.path = hdfs://hadoop102:8020/flume/%{logType}
a1.sinks.k2.hdfs.filePrefix = user_
a1.sinks.k2.hdfs.rollInterval = 30
a1.sinks.k2.hdfs.rollSize = 0
a1.sinks.k2.hdfs.rollCount = 0
a1.sinks.k2.hdfs.batchSize = 100
a1.sinks.k2.hdfs.fileType = DataStream

#5、关联source->channel->sink
a1.sources.r1.channels = c1 c2
a1.sinks.k1.channel = c1
a1.sinks.k2.channel = c2
  1. 启动Flume并测试
[hadoop@hadoop102 flume]$ bin/flume-ng agent -c conf/ -n a1 -f job/interceptor.conf -Dflume.root.logger=INFO,console
  1. 向9999端口发送数据
[hadoop@hadoop102 ~]$ nc hadoop102 9999
user:kkkk
OK
sys:tttt
OK
  1. 前往HDFS查看数据
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hive中,可以通过自定义函数来满足特定需求。下面是一个演示如何在Hive自定义函数的例子: 1. 首先,创建一个Java类来实现自定义函数的逻辑。例如,创建一个名为`MaxValueUDF`的类,该类用于计算给定列的最大值。 ```java package com.hive; import org.apache.hadoop.hive.ql.exec.UDF; import org.apache.hadoop.io.Text; public class MaxValueUDF extends UDF { public Text evaluate(Text input) { // 将输入字符串转换为数组 String[] values = input.toString().split(","); // 初始化最大值为第一个元素 int max = Integer.parseInt(values[0]); // 遍历数组,找到最大值 for (int i = 1; i < values.length; i++) { int currentValue = Integer.parseInt(values[i]); if (currentValue > max) { max = currentValue; } } // 返回最大值 return new Text(String.valueOf(max)); } } ``` 2. 编译Java类并将其打包成JAR文件。 3. 在Hive中创建一个临时函数,将JAR文件添加到Hive的classpath中,并指定自定义函数的名称和类。 ```shell ADD JAR /path/to/your/jarfile.jar; CREATE TEMPORARY FUNCTION get_max AS 'com.hive.MaxValueUDF'; ``` 4. 使用自定义函数来计算最大值。例如,假设有一个名为`numbers`的表,其中包含一个名为`value`的列,我们可以使用自定义函数来计算该列的最大值。 ```shell SELECT get_max(value) FROM numbers; ``` 以上是在Hive自定义函数的一个示例。你可以根据自己的需求编写不同的自定义函数来扩展Hive的功能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值