Hive-DML函数了解以及实践

DML 函数

系统内置函数

1)查看系统自带的函数
hive> show functions;

2)显示自带的函数的用法
hive> desc function upper;

3)详细显示自带的函数的用法
hive> desc function extended upper;

系统自带的函数大致分类:

UDF:一进一出,普通函数

UDAF:多进一出,聚合函数

UDTF:一进多出,炸裂函数

一或多指的是输入输出数据的行数

常用内置函数

空字段赋值

NVL:给值为 NULL 的数据赋值,它的格式是 NVL( value,default_value)。它的功能是如果 value 为 NULL,则 NVL 函数返回 default_value 的值,否则返回 value 的值,如果两个参数都为 NULL ,则返回 NULL。

CASE WHEN THEN ELSE END

数据准备

悟空,A,男
大海,A,男
宋宋,B,男
王姐,A,女
婷姐,B,女
婷婷,B,女

创建表

create table emp_sex(
    name string,
    dept_id string,
    sex string
)
row format delimited fields terminated by ",";

load data local inpath '/opt/module/hive/data/emp_sex.txt' into table emp_sex;

hive (default)> select * from emp_sex;
OK
emp_sex.name    emp_sex.dept_id emp_sex.sex
悟空    A       男
大海    A       男
宋宋    B       男
王姐    A       女
婷姐    B       女
婷婷    B       女

// 求出不同部门男女各多少人
select
    dept_id,
    sum(case sex when '男' then 1 else 0 end) male_count,
    sum(case sex when '女' then 1 else 0 end) female_count
from emp_sex
group by dept_id;
OK
dept_id male_count      female_count
A       2       1
B       1       2
Time taken: 27.34 seconds, Fetched: 2 row(s)

// 因为只有两个分支,所以可以使用if,多个分支最好用case,当然if也可以实现,只不过很麻烦
select
    dept_id,
    sum(if(sex='男',1,0)) male_count,
    sum(if(sex='女',1,0)) female_count
from emp_sex
group by dept_id;

多个的时候

case sex when 'x' then 1 when 'y' then 2 else 0 end
// else相当于默认值,前面的when都匹配不上的时候用else的值

行转列(多列合并成一个列)

相关函数说明

CONCAT(string A/col, string B/col…): 返回输入字符串连接后的结果,支持任意个输入字符串;

CONCAT_WS(separator, str1, str2,…): 它是一个特殊形式的 CONCAT()。第一个参数剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间;

注意: CONCAT_WS must be "string or array"

COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生 Array 类型字段。

hive (default)> select concat('a', '-', 'b', '-', 'c');
OK
_c0
a-b-c

hive (default)> select concat(name, '-', sex) from emp_sex;
OK
_c0
悟空-男
大海-男
宋宋-男
凤姐-女
婷姐-女
婷婷-女
Time taken: 0.922 seconds, Fetched: 6 row(s)

hive (default)> select concat_ws('-', 'a', 'b', 'c');
OK
_c0
a-b-c
Time taken: 0.905 seconds, Fetched: 1 row(s)

hive (default)> select concat_ws('-', name, sex) from emp_sex;
OK
_c0
悟空-男
大海-男
宋宋-男
凤姐-女
婷姐-女
婷婷-女
Time taken: 0.915 seconds, Fetched: 6 row(s)


hive (default)> select * from weitest;
OK
weitest.name    weitest.friends weitest.children        weitest.address
caocao  ["liubei","sunquan"]    {"caozhi":15,"caopi":16}        {"street":"huanggong","city":"xuchang"}
caopi   ["simayi"]      {"caorui":10}   {"street":"huanggong","city":"xuchang"}
Time taken: 0.899 seconds, Fetched: 2 row(s)

hive (default)> select concat_ws('-', friends) from weitest;
OK
_c0
liubei-sunquan
simayi
Time taken: 0.955 seconds, Fetched: 2 row(s)

hive (default)> select collect_list(id) from student;
OK
_c0
["11","12","1","2","3","1","2","3"]
Time taken: 19.44 seconds, Fetched: 1 row(s)

hive (default)> select collect_set(id) from student;
OK
_c0
["11","12","1","2","3"]
Time taken: 19.44 seconds, Fetched: 1 row(s)

数据准备:

孙悟空,白羊座,A
大海,射手座,A
宋宋,白羊座,B
猪八戒,白羊座,A
王姐,射手座,A
唐僧,白羊座,B

需求:把星座和血型一样的人归类到一起。结果如下:

射手座,A    大海|王姐
白羊座,A    孙悟空|猪八戒
白羊座,B    宋宋|唐僧

创建 hive 表并导入数据

create table person_info(
    name string,
    constellation string,
    blood_type string
)
row format delimited fields terminated by ",";


load data local inpath "/opt/module/hive/data/person_info.txt" into table person_info;

hive (default)> select * from person_info;
OK
person_info.name        person_info.constellation       person_info.blood_type
孙悟空  白羊座  A
大海    射手座  A
宋宋    白羊座  B
猪八戒  白羊座  A
王姐    射手座  A
唐僧    白羊座  B
Time taken: 0.914 seconds, Fetched: 6 row(s)

按照需求查询数据

SELECT
    t1.c_b,
    CONCAT_WS("|", collect_set(t1.name))
FROM (
    SELECT
        NAME,
        CONCAT_WS(',',constellation,blood_type) c_b
    FROM person_info
)t1
GROUP BY t1.c_b

t1临时表是为了将新作和血型拼接在一起。

列转行(一行变多行)

EXPLODE(col):将 hive 一列中复杂的 Array 或者 Map 结构拆分成多行。

LATERAL VIEW(侧写表)用法:LATERAL VIEW udtf(expression) tableAlias AS columnAlias

解释:用于和 split, explode 等 UDTF 一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。主要是用于,炸裂之后需要查询其他非炸裂列的时候用到,因为炸裂之后会比原来的列更多;不需要查原表数据就不需要侧写表。

数据准备

《疑犯追踪》:悬疑,动作,科幻,剧情
《Lie to me》:悬疑,警匪,动作,心理,剧情
《战狼2》:战争,动作,灾难

创建表

create table movie_info(
    movie string,
    category string
)
row format delimited fields terminated by ":";

load data local inpath "/opt/module/hive/data/movie.txt" into table movie_info;

hive (default)> select * from movie_info;
OK
movie_info.movie        movie_info.category
《疑犯追踪》    悬疑,动作,科幻,剧情
《Lie to me》   悬疑,警匪,动作,心理,剧情
《战狼2》       战争,动作,灾难
Time taken: 0.988 seconds, Fetched: 3 row(s)

将电影分类中的数组数据展开:

SELECT
    movie,
    category_name
FROM
    movie_info
lateral view
    explode(split(category,",")) movie_info_tmp AS category_name;

movie   category_name
《疑犯追踪》    悬疑
《疑犯追踪》    动作
《疑犯追踪》    科幻
《疑犯追踪》    剧情
《Lie to me》   悬疑
《Lie to me》   警匪
《Lie to me》   动作
《Lie to me》   心理
《Lie to me》   剧情
《战狼2》       战争
《战狼2》       动作
《战狼2》       灾难
Time taken: 0.351 seconds, Fetched: 12 row(s)

窗口函数(开窗函数)

OVER():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变而变化。

​ // 写在over里面的,用来限定分组的行数的

​ CURRENT ROW:当前行

​ n PRECEDING:往前 n 行数据

​ n FOLLOWING:往后 n 行数据

​ UNBOUNDED:起点,

​ UNBOUNDED PRECEDING 表示从前面的起点,

​ UNBOUNDED FOLLOWING 表示到后面的终点

​ // 写在over前面的

​ LAG(col,n,default_val):往前第 n 行数据

​ LEAD(col,n, default_val):往后第 n 行数据

​ NTILE(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从 1 开始,对于每一行,NTILE 返回此行所属的组的编号。相当于分成n个组,注意:n 必须为 int 类型。

如果窗口没有数据则得到的结果是null。

数据准备:name,orderdate,cost

jack,2017-01-01,10
tony,2017-01-02,15
jack,2017-02-03,23
tony,2017-01-04,29
jack,2017-01-05,46
jack,2017-04-06,42
tony,2017-01-07,50
jack,2017-01-08,55
mart,2017-04-08,62
mart,2017-04-09,68
neil,2017-05-10,12
mart,2017-04-11,75
neil,2017-06-12,80
mart,2017-04-13,94

创建表并,保存文件

create table business(
    name string,
    orderdate string,
    cost int
) 
ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';

load data local inpath "/opt/module/hive/data/business.txt" into table business;

hive (default)> select * from business;
OK
business.name   business.orderdate      business.cost
jack    2017-01-01      10
tony    2017-01-02      15
jack    2017-02-03      23
tony    2017-01-04      29
jack    2017-01-05      46
jack    2017-04-06      42
tony    2017-01-07      50
jack    2017-01-08      55
mart    2017-04-08      62
mart    2017-04-09      68
neil    2017-05-10      12
mart    2017-04-11      75
neil    2017-06-12      80
mart    2017-04-13      94
Time taken: 0.91 seconds, Fetched: 14 row(s)

按需求查询

(1) 查询在 2017 年 4 月份购买过的顾客及总人数

over()不加任何内容,表示对结果全量处理,这里就是对分组查询之后的数据mart和jack全量处理,count得到的结果是2并赋值给其中的每条数据。

select 
    name,
    count(*) over ()
from business
where substring(orderdate,0,7) = '2017-04'
group by name;

OK
name    count_window_0
mart    2
jack    2
Time taken: 66.657 seconds, Fetched: 2 row(s)

(2) 查询顾客的购买明细及月购买总额

默认情况下是对所有的cost进行sum操作并赋值给所有的数据,增加了partition by之后会根据结果进行分组,然后每个组内进行sum操作并赋值给组内的每条数据;

partition by 用来限定开窗的大小的。

month函数是取事件的月份的。

select 
    name,
    orderdate,
    cost,
    sum(cost) over(partition by month(orderdate))
from business;

OK
name    orderdate       cost    sum_window_0
jack    2017-01-01      10      205
jack    2017-01-08      55      205
tony    2017-01-07      50      205
jack    2017-01-05      46      205
tony    2017-01-04      29      205
tony    2017-01-02      15      205
jack    2017-02-03      23      23
mart    2017-04-13      94      341
jack    2017-04-06      42      341
mart    2017-04-11      75      341
mart    2017-04-09      68      341
mart    2017-04-08      62      341
neil    2017-05-10      12      12
neil    2017-06-12      80      80
Time taken: 29.539 seconds, Fetched: 14 row(s)

(3) 将每个顾客的 cost 按照日期进行累加

select
    name,
    orderdate,
    cost,
    sum(cost) over(partition by name order by orderdate)
from business;

OK
name    orderdate       cost    sum_window_0
jack    2017-01-01      10      10
jack    2017-01-05      46      56
jack    2017-01-08      55      111
jack    2017-02-03      23      134
jack    2017-04-06      42      176
mart    2017-04-08      62      62
mart    2017-04-09      68      130
mart    2017-04-11      75      205
mart    2017-04-13      94      299
neil    2017-05-10      12      12
neil    2017-06-12      80      92
tony    2017-01-02      15      15
tony    2017-01-04      29      44
tony    2017-01-07      50      94
Time taken: 23.113 seconds, Fetched: 14 row(s)

// 以下结果也是一样的
// 使用了order by的话,默认就是从开始到当前行,即默认就有rows between UNBOUNDED PRECEDING and current row
select
    name,
    orderdate,
    cost,
    sum(cost) over(partition by name order by orderdate rows between UNBOUNDED PRECEDING and current row)
from business;


select name,orderdate,cost,
--所有行相加
sum(cost) over() as sample1,

--按 name 分组,组内数据相加
sum(cost) over(partition by name) as sample2,

--按 name分组,组内数据累加
sum(cost) over(partition by name order by orderdate) as sample3,

--和 sample3 一样,由起点到当前行的聚合
sum(cost) over(partition by name order by orderdate rows between UNBOUNDED PRECEDING and current row ) as sample4,

--当前行和前面一行做聚合
sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING and current row) as sample5, 

--当前行和前边一行及后面一行
sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING AND 1 FOLLOWING ) as sample6,

--当前行及后面所有行
sum(cost) over(partition by name order by orderdate rows between current row and UNBOUNDED FOLLOWING ) as sample7 

from business;

rows 必须跟在 order by 子句之后,对排序的结果进行限制,使用固定的行数来限制分区中的数据行数量。

如果排序的字段出现相同的话,如下:

id:1,2,3,3,4,5

select id, sum(id) over(order by id) from num;

id  col
1   1
2   2
3   9
3   9
4   13
5   18

此时因为3和3是一样的(即认为两行是同一行,处理时依旧是两行),因此开窗的时候开的数据都是1,2,3,3,这个要注意以下,最好要用的时候把相同数据区分以下,或者是使用之前先去重。

(4) 查看顾客上次的购买时间

select 
    name,
    orderdate,
    cost,
    lag(orderdate,1,'1900-01-01') over(partition by name order by orderdate ) as time1,       lag(orderdate,2) over (partition by name order by orderdate) as time2
from business;

OK
name    orderdate       cost    time1   time2
jack    2017-01-01      10      1900-01-01      NULL
jack    2017-01-05      46      2017-01-01      NULL
jack    2017-01-08      55      2017-01-05      2017-01-01
jack    2017-02-03      23      2017-01-08      2017-01-05
jack    2017-04-06      42      2017-02-03      2017-01-08
mart    2017-04-08      62      1900-01-01      NULL
mart    2017-04-09      68      2017-04-08      NULL
mart    2017-04-11      75      2017-04-09      2017-04-08
mart    2017-04-13      94      2017-04-11      2017-04-09
neil    2017-05-10      12      1900-01-01      NULL
neil    2017-06-12      80      2017-05-10      NULL
tony    2017-01-02      15      1900-01-01      NULL
tony    2017-01-04      29      2017-01-02      NULL
tony    2017-01-07      50      2017-01-04      2017-01-02
Time taken: 37.65 seconds, Fetched: 14 row(s)

lag的默认值写默认为null,默认值也可以是具体的列

(5) 查询前20%时间的订单信息

select * from (
    select 
        name,
        orderdate,
        cost, 
        ntile(5) over(order by orderdate) sorted
    from business
) t
where sorted = 1;
OK
t.name  t.orderdate     t.cost  t.sorted
jack    2017-01-01      10      1
tony    2017-01-02      15      1
tony    2017-01-04      29      1
Time taken: 20.183 seconds, Fetched: 3 row(s)

groupBy 的效率比over高,窗口是对每一行数据独立计算,每一条数据都有自己的窗口。能不用over就不用over。

Rank

RANK() 排序相同时会重复,总数不会变, 1,1,3

DENSE_RANK() 排序相同时会重复,总数会减少,1,1,2

ROW_NUMBER() 会根据顺序计算, 1,2,3

也是与over()一起使用的

数据准备

孙悟空,语文,87
孙悟空,数学,95
孙悟空,英语,68
大海,语文,94
大海,数学,56
大海,英语,84
宋宋,语文,64
宋宋,数学,86
宋宋,英语,84
婷婷,语文,65
婷婷,数学,85
婷婷,英语,78
create table score(
    name string,
    subject string,
    score int
)
row format delimited fields terminated by ",";

load data local inpath '/opt/module/hive/data/score.txt' into table score;

hive (default)> select * from score;
OK
score.name      score.subject   score.score
孙悟空  语文    87
孙悟空  数学    95
孙悟空  英语    68
大海    语文    94
大海    数学    56
大海    英语    84
宋宋    语文    64
宋宋    数学    86
宋宋    英语    84
婷婷    语文    65
婷婷    数学    85
婷婷    英语    78
Time taken: 0.942 seconds, Fetched: 12 row(s)
select 
    name,
    subject,
    score,
    rank() over(partition by subject order by score desc) rp,
    dense_rank() over(partition by subject order by score desc) drp,
    row_number() over(partition by subject order by score desc) rmp
from score;

OK
name    subject score   rp      drp     rmp
孙悟空  数学    95      1       1       1
宋宋    数学    86      2       2       2
婷婷    数学    85      3       3       3
大海    数学    56      4       4       4
宋宋    英语    84      1       1       1
大海    英语    84      1       1       2
婷婷    英语    78      3       2       3
孙悟空  英语    68      4       3       4
大海    语文    94      1       1       1
孙悟空  语文    87      2       2       2
婷婷    语文    65      3       3       3
宋宋    语文    64      4       4       4
Time taken: 26.748 seconds, Fetched: 12 row(s)

常用其他函数

常用日期函数
unix_timestamp:返回当前或指定时间的时间戳,默认取到秒的时间戳
select unix_timestamp();
select unix_timestamp("2020-10-28",'yyyy-MM-dd');

from_unixtime:将时间戳转为日期格式,默认转到秒
select from_unixtime(1603843200);
select from_unixtime(1603843200, 'yyyy-MM-dd');

current_date:当前日期
select current_date;

current_timestamp:当前的日期加时间,获取到毫秒数 
select current_timestamp;

to_date:抽取日期部分
select to_date('2020-10-28 12:12:12');

year:获取年
select year('2020-10-28 12:12:12');

month:获取月
select month('2020-10-28 12:12:12');

day:获取日
select day('2020-10-28 12:12:12');

hour:获取时
select hour('2020-10-28 12:12:12');

minute:获取分
select minute('2020-10-28 12:12:12');

second:获取秒
select second('2020-10-28 12:12:12');

weekofyear:当前时间是一年中的第几周
select weekofyear('2020-10-28 12:12:12');

dayofmonth:当前时间是一个月中的第几天
select dayofmonth('2020-10-28 12:12:12');

months_between: 两个日期间的月份
select months_between('2020-04-01','2020-10-28');

add_months:日期加减月
select add_months('2020-10-28',-3);

datediff:两个日期相差的天数
select datediff('2020-11-04','2020-10-28');

date_add:日期加天数
select date_add('2020-10-28',4);

date_sub:日期减天数
select date_sub('2020-10-28',-4);

last_day:日期的当月的最后一天
select last_day('2020-02-30');

date_format(): 格式化日期
select date_format('2020-10-28 12:12:12','yyyy/MM/dd HH:mm:ss');

常用取整函数
round: 四舍五入
select round(3.14);
select round(3.54);

ceil:  向上取整
select ceil(3.14);
select ceil(3.54);

floor: 向下取整
select floor(3.14);
select floor(3.54);

常用字符串操作函数
upper: 转大写
select upper('low');

lower: 转小写
select lower('low');

length: 长度
select length("atguigu");

trim:  前后去空格
select trim(" atguigu ");

lpad: 向左补齐,到指定长度,超出长度进行截取
select lpad('atguigu',9,'g');

rpad:  向右补齐,到指定长度
select rpad('atguigu',9,'g');

regexp_replace:使用正则表达式匹配目标字符串,匹配成功后替换!
SELECT regexp_replace('2020/10/25', '/', '-');

集合操作
size: 集合中元素的个数
select size(friends) from test3;

map_keys: 返回map中的key
select map_keys(children) from test3;

map_values: 返回map中的value
select map_values(children) from test3;

array_contains: 判断array中是否包含某个元素
select array_contains(friends,'bingbing') from test3;

sort_array: 将array中的元素排序
select sort_array(friends) from test3;

grouping_set:多维分析

自定义函数

1)Hive 自带了一些函数,比如:max/min 等,但是数量有限,自己可以通过自定义 UDF 来方便的扩展。

2)当 Hive 提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。

3)根据用户自定义函数类别分为以下三种:

(1)UDF(User-Defined-Function) 一进一出

(2)UDAF(User-Defined Aggregation Function) 聚集函数,多进一出

类似于:count/max/min

(3)UDTF(User-Defined Table-Generating Functions) 一进多出

如 lateral view explode()

4)官方文档地址

https://cwiki.apache.org/confluence/display/Hive/HivePlugins

5)编程步骤:

(1)继承 Hive 提供的类,自定义多的是UDF和UDTF。

org.apache.hadoop.hive.ql.udf.generic.GenericUDF;

org.apache.hadoop.hive.ql.udf.generic.GenericUDAF;

org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;

(2)实现类中的抽象方法

(3)在 hive 的命令行窗口创建函数

添加 jar

add jar linux_jar_path

创建 function

create [temporary] function [dbname.]function_name AS class_name;

(4)在 hive 的命令行窗口删除函数

drop [temporary] function [if exists] [dbname.]function_name;

自定义 UDF 函数

需求:自定义一个 UDF 实现计算给定字符串的长度,例如:

hive(default)> select my_len("abcd");
4

创建一个 Maven 工程 Hive

导入依赖

<dependencies>
    <dependency>
        <groupId>org.apache.hive</groupId>
        <artifactId>hive-exec</artifactId>
        <version>3.1.2</version>
    </dependency>
</dependencies>

自定义UDF

package com.starnet.hive;

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;

public class MyUDF extends GenericUDF {

    // 校验数据参数个数
    @Override
    public ObjectInspector initialize(ObjectInspector[] arguments) throws UDFArgumentException {

        if (arguments.length != 1) {
            throw new UDFArgumentException("参数个数不为1");
        }

        return PrimitiveObjectInspectorFactory.javaIntObjectInspector;
    }

    // 处理数据
    @Override
    public Object evaluate(DeferredObject[] arguments) throws HiveException {

        // 1、取出输入数据
        String input = arguments[0].get.toString();

        // 2、判断数据是否为null
        if (input == null) {
            return 0;
        }

        // 3、返回输入数据的长度
        return input.length();
    }

    @Override
    public String getDisplayString(String[] strings) {
        return null;
    }
}

打成 jar 包上传到服务器/opt/module/hive/lib/my目录下

将 jar 包添加到 hive 的 classpath

hive (default)> add jar /opt/module/hive/lib/my/myudf.jar;

创建临时函数与开发好的 java class 关联

hive (default)> create temporary function my_len as "com.starnet.hive.MyUDF";

hive (default)> select my_len("test");
4

自定义 UDTF 函数

需求: 自定义一个 UDTF 实现将一个任意分割符的字符串切割成独立的单词,例如:

hive(default)> select myudtf("hello,world,hadoop,hive", ",");
hello
world
hadoop
hive
/**
 * 输入数据:hello,spark,hive
 * 输入数据:
 *          hello
 *          spark
 *          hive
 */
public class MyUDTF extends GenericUDTF {

    // 输出数据的集合
    private ArrayList<String> outputList = new ArrayList<>();

    // 初始化方法
    @Override
    public StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException {

        // 输出数据的默认列名,可以被别名覆盖
        List<String> fieldName = new ArrayList<>();
        fieldName.add("word");

        // 输出数据的类型
        List<ObjectInspector> fieldOIs = new ArrayList<>();
        fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);

        return ObjectInspectorFactory.getStandardStructObjectInspector(fieldName, fieldOIs);
    }

    // 处理输入数据:hello,spark,hive
    @Override
    public void process(Object[] args) throws HiveException {

        // 1、取出输入数据
        String input = args[0].toString();
        String splitStr = args[1].toString();

        // 2、按照,分割字符串
        String[] words = input.split(splitStr);

        // 3、遍历数据写出
        for (String word : words) {

            // 清空集合
            outputList.clear();

            // 将数据放入集合
            outputList.add(word);

            // 输出数据
            forward(outputList);
        }
    }

    // 结束方法
    @Override
    public void close() throws HiveException {

    }
}
hive(default)> select myudtf("hello,world,hadoop,hive", ",");

word
hello
world
hadoop
hive

Grouping_Sets

Aggregate Query with GROUPING SETSEquivalent Aggregate Query with GROUP BY
SELECT a, b, SUM© FROM tab1 GROUP BY a, b GROUPING SETS ( (a,b) )SELECT a, b, SUM© FROM tab1 GROUP BY a, b
SELECT a, b, SUM( c ) FROM tab1 GROUP BY a, b GROUPING SETS ( (a,b), a)SELECT a, b, SUM( c ) FROM tab1 GROUP BY a, b
UNION
SELECT a, null, SUM( c ) FROM tab1 GROUP BY a
SELECT a,b, SUM( c ) FROM tab1 GROUP BY a, b GROUPING SETS (a,b)SELECT a, null, SUM( c ) FROM tab1 GROUP BY a
UNION
SELECT null, b, SUM( c ) FROM tab1 GROUP BY b
SELECT a, b, SUM( c ) FROM tab1 GROUP BY a, b GROUPING SETS ( (a, b), a, b, ( ) )SELECT a, b, SUM( c ) FROM tab1 GROUP BY a, b
UNION
SELECT a, null, SUM( c ) FROM tab1 GROUP BY a, null
UNION
SELECT null, b, SUM( c ) FROM tab1 GROUP BY null, b
UNION
SELECT null, null, SUM( c ) FROM tab1

上面补null的原因是因为要union的话,查出来的字段必须是一样多的。

准备数据

1,caocao,male,10
2,zhangsan,female,20
3,liubei,female,30
4,lisi,male,10
5,sunquan,male,20
6,wangwu,female,30
create table staff(
    id int, 
    name string,
    sex string,
    country_id int
)
row format delimited fields terminated by ',';

load data local inpath '/opt/module/hive/data/staff.txt' into table staff;

hive (default)> select * from staff;
OK
staff.id        staff.name      staff.sex       staff.country_id
1       caocao  male    10
2       zhangsan        female  20
3       liubei  female  30
4       lisi    male    10
5       sunquan male    20
6       wangwu  female  30
Time taken: 0.932 seconds, Fetched: 6 row(s)

select country_id, sex, count(*) from staff 
group by country_id, sex 
grouping sets((country_id, sex), (country_id), (sex), ());
OK
country_id      sex     _c2
NULL    NULL    6
10      NULL    2
20      NULL    2
30      NULL    2
NULL    female  3
20      female  1
30      female  2
NULL    male    3
10      male    2
20      male    1
Time taken: 25.649 seconds, Fetched: 10 row(s)

WordCount简单实现

hello,word,caocao
sunquan,lvbu
caocao,hello
liubei,libei,hello,lvbu

创建表并导入数据

create table wordcount(
    data string
);

load data local inpath '/opt/module/hive/data/input.txt' into table wordcount;

hive (default)> select * from wordcount;
OK
wordcount.data
hello,word,caocao
sunquan,lvbu
caocao,hello
liubei,libei,hello,lvbu
Time taken: 2.125 seconds, Fetched: 4 row(s)

// wordcount
select word, count(*) as num from 
(
    select explode(split(data, ',')) word from wordcount
)t1
group by word;
OK
word    num
caocao  2
hello   3
libei   1
liubei  1
lvbu    2
sunquan 1
word    1
Time taken: 26.37 seconds, Fetched: 7 row(s)
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值