Hive进行UDF开发十分简单,此处所说UDF为Temporary的function,所以需要hive版本在0.4.0以上才可以。
一、背景:Hive是基于Hadoop中的MapReduce,提供HQL查询的数据仓库。Hive是一个很开放的系统,很多内容都支持用户定制,包括:
a)文件格式:Text File,Sequence File
b)内存中的数据格式: Java Integer/String, Hadoop IntWritable/Text
c)用户提供的 map/reduce脚本:不管什么语言,利用 stdin/stdout 传输数据
d)用户自定义函数: Substr, Trim, 1 – 1
e)用户自定义聚合函数: Sum, Average…… n – 1
2、定义:UDF(User-Defined-Function),用户自定义函数对数据进行处理。
二、用法
1、UDF函数可以直接应用于select语句,对查询结构做格式化处理后,再输出内容。
2、编写UDF函数的时候需要注意一下几点:
a)自定义UDF需要继承org.apache.hadoop.hive.ql.UDF。
b)需要实现evaluate函数。
c ) evaluate 函数支持重载。
实现 IP 转十进制
- package org.iptostring;
- import org.apache.hadoop.hive.ql.exec.UDF;
- public class IpToString extends UDF {
- public String evaluate(long longIp){
- StringBuffer sb = new StringBuffer("");
- sb.append(String.valueOf((longIp >>> 24)));
- sb.append(".");
- sb.append(String.valueOf((longIp & 0x00FFFFFF) >>> 16));
- sb.append(".");
- sb.append(String.valueOf((longIp & 0x0000FFFF) >>> 8 ));
- sb.append(".");
- sb.append(String.valueOf((longIp & 0x000000FF)));
- return sb.toString();
- }
- }
- package org.iptolong;
- import java.util.regex.Pattern;
- import org.apache.hadoop.hive.ql.exec.UDF;
- public class IpToLong extends UDF {
- public long evaluate(String strIp){
- Pattern pattern = Pattern.compile("((\\d{1,2}|1\\d\\d|2[0-4]\\d|25[0-5])\\.(\\d{1,2}|1\\d\\d|2[0-4]\\d|25[0-5])\\.(\\d{1,2}|1\\d\\d|2[0-4]\\d|25[0-5])\\.(\\d{1,2}|1\\d\\d|2[0-4]\\d|25[0-5]))");
- if (pattern.matcher( strIp ).matches()){
- long[] ip = new long[4];
- int position1 = strIp.indexOf(".");
- int position2 = strIp.indexOf(".", position1 + 1);
- int position3 = strIp.indexOf(".", position2 + 1);
- ip[0] = Long.parseLong(strIp.substring(0, position1));
- ip[1] = Long.parseLong(strIp.substring(position1+1, position2));
- ip[2] = Long.parseLong(strIp.substring(position2+1, position3));
- ip[3] = Long.parseLong(strIp.substring(position3+1));
- return (ip[0] << 24) + (ip[1] << 16) + (ip[2] << 8 ) + ip[3];
- }else{
- return 0;
- }
- }
- }
文章来自:http://blog.csdn.net/lifuxiangcaohui/article/details/41547501