流程
1.java 继承UDF类编写udf函数(evaluate())(一个类一个方法)
2.打fat包(包括所有依赖文件)
3.把jar包放到linux上
- 临时udf函数
1.在hive命令行中使用add jar jar包路径即可加载到临时系统中
2.create temporary function 函数名() as ‘方法的全类名’
- 永久udf函数
1.在liunx命令行使用hdfs命令把jar包上传到hdfs路径
2.create function 函数名 as ‘方法的全类名’using jar ‘jar包的hdfs路径’;
准备
首先创建maven工程
在打上勾,选择
pom.xml 里面输入
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.6.0</version>
</dependency>
<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-exec</artifactId>
<version>1.2.1</version>
</dependency>
上面的jdk需要和本机的jdk版本一至
1.在一个时间基础上进行小时的加减得到新的时间
package cn.kgc.kb09.udf;
import org.apache.hadoop.hive.ql.exec.UDF;
import org