Hive_自定义函数

desc function split;

desc function extended split;
split 可以同时对多个分隔符切割
select split(‘zhonagguo-fefei_xiaoming’,’[-_]’);
自定义函数 hive中看行 多行进一行 一行进一行
(1)UDF(User-Defined-Function)
一进一出
(2)UDAF(User-Defined Aggregation Function)
聚集函数,多进一出
类似于:count/max/min
(3)UDTF(User-Defined Table-Generating Functions)
一进多出
如lateral view explore()
package com.myfunction;
import org.apache.hadoop.hive.ql.exec.UDF;
public class MyUDF extends UDF {
//方法名evaluate固定
public int evaluate(int data){
return data + 5;
}
}

hive> add jar /opt/module/hive/lib/hivefunction.jar
hive> create [temporary] function addFive as ‘com.myfunction.MyUDF’;
select addFive(5);
hive> create function myudtf as ‘com.myfunction.MyUDTF’;

package com.myfunction;

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;
import java.util.ArrayList;
import java.util.List;
public class MyUDTF extends GenericUDTF {
//初始化方法
@Override
public StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException {
//定义输出数据的列名
ArrayList fieldNames = new ArrayList();
fieldNames.add(“word”); //控制的是列名类型
//定义输出数据的类型
ArrayList fieldOIs = new ArrayList();
fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector); //控制返回值类型
//返回列名 值
return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames,fieldOIs );
}
//来的每一条数据都需要处理来 参数多个
private List dataList = new ArrayList();
public void process(Object[] args) throws HiveException {
//1.获取数据
String data = args[0].toString();
//2.获取分隔符
String splitKey = args[1].toString();
//3切分数据
String[] words = data.split(splitKey);
for (String word : words) {
//将数据放置集合
dataList.clear();
dataList.add(word);
//将集合写出去 一进多出 重点 多行 一个集合里面 多次写出
forward(dataList);
}
}

public void close() throws HiveException {

}

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hive中,可以通过自定义函数来满足特定需求。下面是一个演示如何在Hive自定义函数的例子: 1. 首先,创建一个Java类来实现自定义函数的逻辑。例如,创建一个名为`MaxValueUDF`的类,该类用于计算给定列的最大值。 ```java package com.hive; import org.apache.hadoop.hive.ql.exec.UDF; import org.apache.hadoop.io.Text; public class MaxValueUDF extends UDF { public Text evaluate(Text input) { // 将输入字符串转换为数组 String[] values = input.toString().split(","); // 初始化最大值为第一个元素 int max = Integer.parseInt(values[0]); // 遍历数组,找到最大值 for (int i = 1; i < values.length; i++) { int currentValue = Integer.parseInt(values[i]); if (currentValue > max) { max = currentValue; } } // 返回最大值 return new Text(String.valueOf(max)); } } ``` 2. 编译Java类并将其打包成JAR文件。 3. 在Hive中创建一个临时函数,将JAR文件添加到Hive的classpath中,并指定自定义函数的名称和类。 ```shell ADD JAR /path/to/your/jarfile.jar; CREATE TEMPORARY FUNCTION get_max AS 'com.hive.MaxValueUDF'; ``` 4. 使用自定义函数来计算最大值。例如,假设有一个名为`numbers`的表,其中包含一个名为`value`的列,我们可以使用自定义函数来计算该列的最大值。 ```shell SELECT get_max(value) FROM numbers; ``` 以上是在Hive自定义函数的一个示例。你可以根据自己的需求编写不同的自定义函数来扩展Hive的功能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值