本篇博客小菌为大家带来的是关于Hive自定义函数的相关内容!
首先先让我们来看下系统自带的函数有哪些!
进入Hive,在命令行输入show functions;
发现hive自带的函数就有近一百个,但我们平时经常用到的可能就那么几个,并且自带的函数功能还十分受限!有时候,为了更好的实现业务需求,可能就需要我们去自定义Hive!
根据用户自定义函数类别分为以下三种:
(1)UDF(User-Defined-Function)
一进一出
(2)UDAF(User-Defined Aggregation Function)
聚集函数,多进一出
类似于:count/max/min
(3)UDTF(User-Defined Table-Generating Functions)
一进多出
如lateral view explore()
编程步骤:
(1)继承org.apache.hadoop.hive.ql.UDF
(2)需要实现evaluate函数;evaluate函数支持重载;
注意事项:
(1)UDF必须要有返回类型,可以返回null,但是返回类型不能为void;
(2)UDF中常用Text/LongWritable等类型,不推荐使用java类型;
简单UDF示例
第一步:创建maven java 工程,导入jar包
cloudera
https://repository.cloudera.com/artifactory/cloudera-repos/
org.apache.hadoop
hadoop-common
2.6.0-cdh5.14.0
org.apache.hive
hive-exec
1.1.0-cdh5.14.0
org.apache.maven.plugins
maven-compiler-plugin
3.0
1.8
1.8
UTF-8
org.apache.maven.plugins
maven-shade-plugin
2.2
package
shade
*:*
META-INF/*.SF
META-INF/*.DSA
META-INF/*/RSA
第二步:开发java类继承UDF,并重载evaluate 方法
public class UDF_01 extends UDF {
//自定义函数,实现大写转换!
public Text evaluate(final Text s){
if (null == s){
return null;
}
//返回大写字母
return new Text(s.toString().toUpperCase());
}
}
第三步:将我们的项目打包,并上传到linux的目录下
这里我们将Hive.jar存放在了/opt/hive的目录下
第四步:将jar包添加到hive
在hive shell 内 add jar 路径+jar包
第五步:创建临时函数(永久的函数将temporary删掉)
第六步:调用验证
通过reflect调用java方法
经历完了上面自定义函数过后,相信大家一定还是觉得过程有点繁琐。不用担心,接下来小菌将为大家带来如何在Hive中调用java方法。
第一步:使用java代码编写业务逻辑,并打包上传
public class JAVA_02 {
public static String addInfo(String info){
return info+"__ I love Hive! __ ";
}
}
第二步:将jar包添加到hive
第三步:调用
select reflect (‘参数一’,‘参数二’,‘参数三’)
参数一: 包名-类名
参数二: 方法名
参数三:需要计算的数据
本次的分享就到这里了,不知道小伙伴们操作得是否顺利呢?后续小菌还会为大家带来更多Hive的精彩内容,敬请期待!!!
本文同步分享在 博客“Alice菌”(CSDN)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。