Hive 自定义函数(UDF,UDAF,UDTF)详解

1.自定义函数简单介绍

1.1 概述

    Hive 自带了一些函数,比如:max/min等,但是数量有限,自己可以通过自定义UDF来方便的扩展。当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。根据用户自定义函数类别分为以下三种:

    • UDF(User-Defined-Function):一进一出

    • UDAF(User-Defined Aggregation Function):聚集函数,多进一出。如:count/max/min

    • UDTF(User-Defined Table-Generating Functions):一进多出。如 lateral view explore()

1.2 官方文档:https://cwiki.apache.org/confluence/display/Hive/HivePlugins

1.3 编程步骤:

    • 继承org.apache.hadoop.hive.ql.UDF

    • 需要实现evaluate函数;evaluate函数支持重载;

    • 在hive的命令行窗口创建函数

        a)添加jar:add jar linux_jar_path

        b)创建function:create [temporary] function [dbname]function_name AS class_name;

    • 在hive的命令行窗口删除函数

        Drop [temporary] function [if exists] [dbname.]function_name;

    • 注意事项

        UDF必须要有返回类型,可以返回null,但是返回类型不能为void;

 

2.自定义UDF函数

2.1 创建一个Maven工程Hive

2.2 导入依赖

<dependencies>
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-exec</artifactId>
            <version>1.2.1</version>
        </dependency>
</dependencies>

2.3 创建一个类

package com.luomk.hive;
import org.apache.hadoop.hive.ql.exec.UDF;
public class Lower extends UDF {
    public String evaluate (final String s) {
        if (s == null) {
            return null;
        }
        return s.toLowerCase();
    }
}

2.4 打成jar包上传到服务器/opt/module/jars/udf.jar

2.5 将jar包添加到hive的classpath

    hive (default)> add jar /opt/module/datas/udf.jar;

2.6 创建临时函数与开发好的java class关联

    hive (default)> create temporary function mylower as "com.atguigu.hive.Lower";

2.7 即可在hql中使用自定义的函数strip

    hive (default)> select ename, udf_lower(ename) lowername from emp;

 

3.Hive 行转列(UDAF) 聚合函数

3.1 数据准备

3.2 需求:把星座和血型一样的人归类到一起。结果如下:

射手座,A            大海|凤姐
白羊座,A            孙悟空|猪八戒
白羊座,B            宋宋

3.3 实现步骤:

3.3.1 创建本地constellation.txt,导入数据

[luomk@hadoop102 datas]$ vi constellation.txt
孙悟空    白羊座    A
大海         射手座    A
宋宋         白羊座    B
猪八戒    白羊座    A
凤姐         射手座    A

3.3.2 创建hive表并导入数据

create table person_info(
name string,
constellation string,
blood_type string)
row format delimited fields terminated by "\t”;

load data local inpath “/opt/module/datas/person_info.txt” into table person_info;

3.3.2 按需求查询数据

select
    t1.base,
    concat_ws('|', collect_set(t1.name)) name
from
    (select
        name,
        concat(constellation, ",", blood_type) base
    from
        person_info) t1
group by
    t1.base;

3.3.3 最终结果如下:

3.4 相关函数说明

    CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字符串;

    CONCAT_WS(separator, str1, str2,...):它是一个特殊形式的 CONCAT()。第一个参数剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间;

    COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生array类型字段。

 

4.列转行 (UDTF)对某列拆分,一列拆多行

4.1 数据准备

4.2 需求:将电影分类中的数组数据展开。结果如下:

4.3 实现步骤:

4.3.1 创建本地movie.txt,导入数据

[luomk@hadoop102 datas]$ vi movie.txt
《疑犯追踪》    悬疑,动作,科幻,剧情
《Lie to me》    悬疑,警匪,动作,心理,剧情
《战狼2》    战争,动作,灾难

4.3.2 创建hive表并导入数据

create table movie_info(
    movie string,
    category array<string>)
row format delimited fields terminated by "\t"
collection items terminated by ",";

load data local inpath "/opt/module/datas/movie.txt" into table movie_info;

4.3.3 按需求查询数据

select
    movie,
    category_name
from
    movie_info lateral view explode(category) table_tmp as category_name;

4.4 最终结果如下:

 

4.5 相关函数说明

    LATERAL VIEW

    用法:LATERAL VIEW udtf(expression) tableAlias AS columnAlias

    解释:用于和split, explode等UDTF一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。

    EXPLODE(col):将hive一列中复杂的array或者map结构拆分成多行。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
使用SparkSQL和Hive API,可以通过以下步骤实现用户自定义函数UDF)、聚合函数UDAF)和表生成函数UDTF): 1. 编写自定义函数的代码,例如: ``` // UDF def myUDF(str: String): Int = { str.length } // UDAF class MyUDAF extends UserDefinedAggregateFunction { override def inputSchema: StructType = StructType(StructField("value", StringType) :: Nil) override def bufferSchema: StructType = StructType(StructField("count", IntegerType) :: Nil) override def dataType: DataType = IntegerType override def deterministic: Boolean = true override def initialize(buffer: MutableAggregationBuffer): Unit = { buffer(0) = 0 } override def update(buffer: MutableAggregationBuffer, input: Row): Unit = { buffer(0) = buffer.getInt(0) + input.getString(0).length } override def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = { buffer1(0) = buffer1.getInt(0) + buffer2.getInt(0) } override def evaluate(buffer: Row): Any = { buffer.getInt(0) } } // UDTF class MyUDTF extends GenericUDTF { override def initialize(args: Array[ConstantObjectInspector]): StructObjectInspector = { // 初始化代码 } override def process(args: Array[DeferedObject]): Unit = { // 处理代码 } override def close(): Unit = { // 关闭代码 } } ``` 2. 将自定义函数注册到SparkSQL或Hive中,例如: ``` // SparkSQL中注册UDF spark.udf.register("myUDF", myUDF _) // Hive中注册UDF hiveContext.sql("CREATE TEMPORARY FUNCTION myUDF AS 'com.example.MyUDF'") // Hive中注册UDAF hiveContext.sql("CREATE TEMPORARY FUNCTION myUDAF AS 'com.example.MyUDAF'") // Hive中注册UDTF hiveContext.sql("CREATE TEMPORARY FUNCTION myUDTF AS 'com.example.MyUDTF'") ``` 3. 在SQL语句中使用自定义函数,例如: ``` -- 使用SparkSQL中的UDF SELECT myUDF(name) FROM users -- 使用Hive中的UDF SELECT myUDF(name) FROM users -- 使用Hive中的UDAF SELECT myUDAF(name) FROM users GROUP BY age -- 使用Hive中的UDTF SELECT explode(myUDTF(name)) FROM users ``` 以上就是使用SparkSQL和Hive API实现用户自定义函数UDFUDAFUDTF)的步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员学习圈

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值