自定义UDAF函数开发详解

自定义UDAF函数开发详解

UDAF 函数分为如下两部分:

一、负责检查数据类型(Resolver)

二、负责数据执行处理(Evaluator)

第一部分(Resolver)

Resolver 部分继承 AbstractGenericUDAFResolver类,之后只需要重载getEvaluator 方法,AbstractGenericUDAFResolver的源码如下:

public abstract class AbstractGenericUDAFResolver implements GenericUDAFResolver2 {
    public AbstractGenericUDAFResolver() {
    }
    public GenericUDAFEvaluator getEvaluator(GenericUDAFParameterInfo info) throws SemanticException {
        if (info.isAllColumns()) {
            throw new SemanticException("The specified syntax for UDAF invocation is invalid.");
        } else {
            return this.getEvaluator(info.getParameters());
        }
    }
    public GenericUDAFEvaluator getEvaluator(TypeInfo[] info) throws SemanticException {
        throw new SemanticException("This UDAF does not support the deprecated getEvaluator() method.");
    }
}

它根据SQL传入的参数类型,返回正确的evaluator。这里最主要是实现操作符的重载。
UDAF的第一部分代码为

public class GenericUDAFMedian extends AbstractGenericUDAFResolver {
    @Override
    public GenericUDAFEvaluator getEvaluator(TypeInfo[] parameters)
            throws SemanticException {
        if(parameters.length != 1) {
            throw new UDFArgumentTypeException(parameters.length-1, "Only 1 parameter is accepted!");
        }
        ObjectInspector objectInspector = TypeInfoUtils.getStandardJavaObjectInspectorFromTypeInfo(parameters[0]);
        if(!ObjectInspectorUtils.compareSupported(objectInspector)) {
            throw new UDFArgumentTypeException(parameters.length - 1, "Cannot support comparison of map<> type or complex type containing map<>.");
        }
        switch (((PrimitiveTypeInfo)parameters[0]).getPrimitiveCategory()) {
            case BYTE:
            case SHORT:
            case INT:
            case LONG:
            case FLOAT:
            case DOUBLE:
                return new GenericUDAFMedianEvaluatorDouble();
            case STRING:
            case BOOLEAN:
            default:
                throw new UDFArgumentTypeException(0,
                        "Only numeric type(int long double) arguments are accepted but "
                                + parameters[0].getTypeName() + " was passed as parameter of index->1.");
        }
    }
   ...........
    } 
第二部分(Evaluator)
Evaluator部分继承 GenericUDAFEvaluator 类

GenericUDAFEvaluator 类的源码如下:

public abstract class GenericUDAFEvaluator implements Closeable {
    GenericUDAFEvaluator.Mode mode;

    public static boolean isEstimable(GenericUDAFEvaluator.AggregationBuffer buffer) {
        if (!(buffer instanceof GenericUDAFEvaluator.AbstractAggregationBuffer)) {
            return false;
        } else {
            Class<? extends GenericUDAFEvaluator.AggregationBuffer> clazz = buffer.getClass();
            GenericUDAFEvaluator.AggregationType annotation = (GenericUDAFEvaluator.AggregationType)AnnotationUtils.getAnnotation(clazz, GenericUDAFEvaluator.AggregationType.class);
            return annotation != null && annotation.estimable();
        }
    }
    public GenericUDAFEvaluator() {
    }
    public void configure(MapredContext mapredContext) {
    }
    public ObjectInspector init(GenericUDAFEvaluator.Mode m, ObjectInspector[] parameters) throws HiveException {
        this.mode = m;
        return null;
    }
    public abstract GenericUDAFEvaluator.AggregationBuffer getNewAggregationBuffer() throws HiveException;
    public abstract void reset(GenericUDAFEvaluator.AggregationBuffer var1) throws HiveException;
    public void close() throws IOException {
    }
    public void aggregate(GenericUDAFEvaluator.AggregationBuffer agg, Object[] parameters) throws HiveException {
        if (this.mode != GenericUDAFEvaluator.Mode.PARTIAL1 && this.mode != GenericUDAFEvaluator.Mode.COMPLETE) {
            assert parameters.length == 1;

            this.merge(agg, parameters[0]);
        } else {
            this.iterate(agg, parameters);
        }
    }
    public Object evaluate(GenericUDAFEvaluator.AggregationBuffer agg) throws HiveException {
        return this.mode != GenericUDAFEvaluator.Mode.PARTIAL1 && this.mode != GenericUDAFEvaluator.Mode.PARTIAL2 ? this.terminate(agg) : this.terminatePartial(agg);
    }
    public abstract void iterate(GenericUDAFEvaluator.AggregationBuffer var1, Object[] var2) throws HiveException;
    public abstract Object terminatePartial(GenericUDAFEvaluator.AggregationBuffer var1) throws HiveException;
    public abstract void merge(GenericUDAFEvaluator.AggregationBuffer var1, Object var2) throws HiveException;
    public abstract Object terminate(GenericUDAFEvaluator.AggregationBuffer var1) throws HiveException;
    public GenericUDAFEvaluator getWindowingEvaluator(WindowFrameDef wFrmDef) {
        return null;
    }
    public abstract static class AbstractAggregationBuffer implements GenericUDAFEvaluator.AggregationBuffer {
        public AbstractAggregationBuffer() {
        }
        public int estimate() {
            return -1;
        }
    }
    /** @deprecated */
    public interface AggregationBuffer {
    }
    public static enum Mode {
        PARTIAL1,
        PARTIAL2,
        FINAL,
        COMPLETE;

        private Mode() {
        }
    }
    @Retention(RetentionPolicy.RUNTIME)
    public @interface AggregationType {
        boolean estimable() default false;
    }
}

代码中 重点介绍 Mode 的4个枚举类型,这四个枚举类型就代表整个UDAF函数的代码执行过程,也就是mapreduce的执行过程。

根据mapreduce执行原理:
在map阶段(数据入口)会执行 PARTIAL1(调用iterate和terminatePartial) 和 COMPLETE (iterate和terminate)
在combiner阶段会执行 PARTIAL2(调用merge和terminatePartial)
在reduce阶段会执行 FINAL (调用merge和terminate)

那么针对GenericUDAFEvaluator 类中每个方法都做什么我们重点说一下:

  • init : 在 PARTIAL1,PARTIAL2,FINAL,COMPLETE 这四个阶段都会执行init方法,接收输入参数,设置UDAF的返回类型(return PrimitiveObjectInspectorFactory.writableLongObjectInspector;)
  • reset : 重置聚合
  • iterate : 迭代parameters表示的原始数据并保存到AggregationBuffer中
  • terminatePartial : 以持久化的方式返回AggregationBuffer表示部分聚合结果,这里的持久化意味着返回值只能Java基础类型、数组、基础类型包装器、Hadoop的Writables、Lists和Maps。即使实现了java.io.Serializable,也不要使用自定义的类
  • merge : 相当于reduce阶段(也存在于Combine阶段),用于最后的聚合。Object类型的partial参数与- terminatePartial返回值一致,AggregationBuffer参数与上述一致
  • terminate : 返回由agg表示的最终结果
  • getNewAggregationBuffer :用于返回存储临时聚合结果的 GenericUDAFEvaluator.AggregationBuffer对象

上述这些方法基本按照init、getNewAggregationBuffer、iterate、terminatePartial、merge、terminate的顺序调用

执行流程是:
1、init方法
2、自行定义一个类实现AggregationBuffer类(相当于自定义保存数据聚集的存储类型)
3、调用getNewAggregationBuffer()实例化自定义的AggregationBuffer类
4、调用iterate()遍历每一行数据,存入自定义的AggregationBuffer类的属性中
5、调用terminatePartial()进行部分聚合
6、调用merge()进行最终聚合
7、调用terminate()最终处理,返回最后结果(返回的数据类型要和上面每个过程中的数据类型以及init定义的返回类型一致)

总结

编写自定义UDAF函数,主要就是要掌握运行原理和机制,作为小白,也是花了点时间整理了一下。个人认为重点是理解Mode的4种枚举类型,以及所对应的mapreduce执行过程。其次,要理解在执行过程中调用了那些方法,方法的作用是什么。这样才能完成UDAF函数的自定义开发工作

永久UDAF函数设置

1. 将jar包上传至 HDFS
hdfs://nameservice1/user/hive/jar/median_udaf_double.jar
2. 创建永久UDAF函数
create function medianUDAF as 'UDAF.GenericUDAFMedian' using jar 'hdfs://nameservice1/user/hive/jar/median_udaf_double.jar';
  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 可以使用Java语言编写Hive的自定义UDAF函数,但需要使用Hadoop Streaming API和Hadoop MapReduce API,并且需要确保实现的UDAF函数符合Hive的语义规范。 ### 回答2: Hive是一个开源的大数据仓库系统,用于处理和分析大规模结构化数据。Hive提供了丰富的函数库,以支持各种用例。除了内置函数外,Hive还支持自定义函数,其中包括自定义UDAF(用户定义的聚合函数)。 使用Java编写Hive的自定义UDAF函数可以按照以下步骤进行: 1. 创建一个Java类,用于实现自定义UDAF函数。这个类需要继承Hive的GenericUDAFResolver2接口,并实现其中的方法。 2. 在Java类中,需要定义输入参数类型、中间状态类型和输出类型。根据自定义UDAF函数的需求,可以使用Hive提供的数据类型,如IntWritable、DoubleWritable等。 3. 在Java类中,需要实现initialize、iterate、merge和terminatePartial等方法,用于初始化和处理计算逻辑。 - initialize方法用于初始化中间状态; - iterate方法用于迭代处理每一行输入数据; - merge方法用于合并不同mapper或reducer的中间状态; - terminatePartial方法用于返回部分聚合结果。 4. 在Java类中,需要实现terminate方法,用于返回最终的聚合结果。 5. 编译Java类,并将生成的jar文件添加到Hive的classpath中。 6. 在Hive中,使用CREATE FUNCTION语句创建自定义UDAF函数,并指定使用的jar文件和Java类名。 7. 在Hive中,可以使用自定义UDAF函数进行聚合操作,例如使用SELECT语句。 编写Java类时,需要根据自定义UDAF函数的需求进行逻辑的实现。在编写完成后,应当进行测试和调试,确保函数的正确性和性能。 通过以上步骤,就可以使用Java编写Hive的自定义UDAF函数,以满足特定的需求,对大规模结构化数据进行聚合和分析。 ### 回答3: 使用Java编写Hive的自定义UDAF函数需要以下步骤: 1. 创建一个Java类,实现Hive中的GenericUDAFEvaluator接口。该接口定义了自定义UDAF函数的行为。 2. 在类中实现五个方法:init()、iterate()、terminatePartial()、merge()和terminate()。 - init()方法用于初始化函数的内部状态。 - iterate()方法用于每次处理输入值。 - terminatePartial()方法在部分聚合完成后返回部分结果。 - merge()方法用于合并部分结果。 - terminate()方法在整个聚合完成后返回最终结果。 3. 在类中定义一个静态内部类,实现AggregationBuffer接口,用于存储聚合结果的中间状态。 4. 在类中重写toString()方法,用于返回自定义聚合函数的名称。 5. 在Hive中使用CREATE FUNCTION语句注册自定义UDAF函数,指定Java类的路径和函数名称。 下面是一个示例: ```java import org.apache.hadoop.hive.ql.exec.UDAF; import org.apache.hadoop.hive.ql.exec.UDAFEvaluator; import org.apache.hadoop.hive.ql.metadata.HiveException; import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector; import org.apache.hadoop.hive.serde2.objectinspector.StandardListObjectInspector; import org.apache.hadoop.hive.serde2.objectinspector.StandardPrimitiveObjectInspector; import java.util.ArrayList; import java.util.List; public class CustomUDAF extends UDAF { public static class Evaluator implements UDAFEvaluator { private List<Double> values; @Override public void init() throws HiveException { values = new ArrayList<Double>(); } // 输入值处理 public boolean iterate(Double value) throws HiveException { if (value != null) { values.add(value); } return true; } // 返回部分结果 public List<Double> terminatePartial() { return values; } // 合并部分结果 public boolean merge(List<Double> other) { if (other != null) { values.addAll(other); } return true; } // 返回最终结果 public Double terminate() { Double sum = 0.0; for (Double value : values) { sum += value; } return sum; } // 定义输入和输出值的类型 public ObjectInspector init(Mode m, ObjectInspector[] parameters) throws HiveException { return StandardListObjectInspector .getListObjectInspector(StandardPrimitiveObjectInspector.PrimitiveCategory.DOUBLE); } } @Override public String toString() { return "custom_udaf"; } } ``` 在Hive中使用以下命令注册UDAF函数: ```sql CREATE FUNCTION custom_udaf AS 'com.example.CustomUDAF' USING JAR 'path/to/custom_udaf.jar'; ``` 然后可以在Hive中使用自定义UDAF函数进行聚合操作,例如: ```sql SELECT column, custom_udaf(column) AS sum FROM table GROUP BY column; ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值