Hive SQL基础

本文介绍了Hive作为基于Hadoop的数据仓库,及其与传统SQL的区别。详细阐述了Hive的基础语法,包括SELECT、FROM、WHERE、GROUP BY、HAVING、ORDER BY的使用,并通过实例展示了如何进行数据筛选、分类汇总、条件函数、字符串函数及聚合统计等操作。同时,讨论了时间戳转换、日期间隔计算以及条件判断等功能。内容涵盖了Hive在处理大数据时的重要功能和实用技巧。
摘要由CSDN通过智能技术生成

Hive执行顺序:

**FROM-->WHERE-->GROUP BY-->HAVING-->SELECT-->ORDER BY**

书写顺序:

**SELECT DISTINCT
FROM
JOIN
ON
WHERE
GROUP BY
WITH
HAVING
ORDER BY
LIMIT**
1.HIVE简介
1)HIVE是基于Hadoop的数据仓库

Hive SQL与传统SQL对比:
hive
PS:块设备是i/o设备中的一类,是将信息存储在固定大小的块中,每个块都有自己的地址,还可以在设备的任意位置读取一定长度的数据,例如硬盘,U盘,SD卡等。

2)MapReduce简介

在这里插入图片描述

2.基础语法
1)SELECT…A…FROM…B…WHERE…C…

A:列名
B:表名
C:筛选条件

user_info列名举例
user_id10001,10002(唯一的)
user_nameAmy,Dennis(唯一的)
sex[male,female]
age[13,70]
citybeijing,shanghai
firstactivetime2019-04-19 15:40:00
level[1,10]
extra1string类型:{“systemtype”:“ios”,“education”:“master”,“marriage_status”:“1”,“phonebrand”:“iphoneX”}
extra2map<string.string>类型: {“systemtype”:“ios”,“education”:“master”,“marriage_status”:“1”,“phonebrand”:“iphoneX”}

在这里插入图片描述

--选出城市在北京,性别为女的10个用户名
select user_name
from user_info
where city='beijing' and sex='female'
limit 10;
user_trade列名举例
user_nameAmy,Dennis
piece购买数量
price价格
pay_amount支付金额
goods_categoryfood,clothes,book,computer,electronics,shoes
pay_time2412521561,时间戳
dtpartition,‘yyyy-mm-dd’

在这里插入图片描述
注意:如果该表是一个分区表,则where条件中必须对分区字段进行限制。

--选出在2019年4月9日,购买的商品品类是food的用户名、购买数量、支付金额
select user_name,piece,pay_amount from user_trade
where dt="2019-04-09" and goods_category='food';

未对分区进行限制的报错:

select user_name,piece,pay_amount from user_trade
where goods_category='food';

在这里插入图片描述
注:分区表必须限制分区字段

2)GROUP BY 的作用:分类汇总
--2019年一月到四月,每个品类有多少人购买,累计金额是多少
select goods_category,
	count(distinct user_name) as user_num,
	sum(pay_amount) as total_amount
from user_trade
where dt between '2019-01-01' and '2019-04-03'
group by goods_category;

常用的聚合函数:
1.count():计数count(distinct…)去重计数;
2.sum():求和;
3.avg():平均值;
4.max():最大值;
5.min():最小值
GROUP BY …HAVING

--2019年4月,支付金额超过5万元的用户
select user_name,
	sum(pay_amount) as total_amount
from user_trade
where dt between '2019-04-01' and '2019-04-30'
group by user_name
having sum(pay_amount)>50000;

HAVING:对GROUP BY 的对象进行筛选,仅返回符合HAVING条件的结果

3)ORDER BY
--2019年4月,支付金额最多的top5用户
select user_name,
	sum(pay_amount) as total_amount
from user_trade
where dt between '2019-04-01' and '2019-04-30'
group by user_name
order by total_amount desc limin 5;

ASC:升序(默认)
DESC:降序
对多个字段进行排序:ORDER BY A ASC,B DESC
ORDER BY A DESC,B DESC
为什么order by 后面不直接写sum(pay_amount)而是用total_amount?
答:执行顺序,order by 的执行顺序在select之后,所以需要使用重新定义的列名进行排序。

4)执行顺序

FROM–>WHERE–>GROUP BY -->HAVING–>SELECT–>ORDER BY

3.常用函数
1)如何把时间戳转化为日期
select pay_time,from_unixtime(pay_time,
'yyyy-MM-dd hh:mm:ss')
from user_trade
where dt='2019-04-09';

在这里插入图片描述
from_unixtime(bigint unitime,string format)
format:
1.yyyy-MM-dd hh:mm:ss
2.yyyy-MM-dd hh
3.yyyy-MM-dd hh:mm
4.yyyyMMdd
把日期转化为时间戳–unix_timestamp
unix_timestamp(string date)

2)如何计算日期间隔
--用户的首次激活时间,与2019年5月1日的日期间隔
select user_name,
	datediff('2019-05-01',to_date(firstactivetime))
from user_info
limit 10;

datediff(string enddate,string startdate):结束如期减去开始日期的天数
拓展:日期增加函数、减少函数----date_add、date_sub
date_add(string startdate,int days)
date_sub(string startdate,int days)

3)条件函数
case when
--统计一下四个年龄段20岁一下、20-30岁、30-40岁、40岁以上的用户数
select case when age<20 then '20岁以下'
			  when age>=20 and age <30 then '20-30岁'
			  when age>=30 and age <40 then '30-40岁'
			  else '40岁以上' end as age_type,
		count(distinct user_id) user_num
from user_info
group by case when age<20 then '20岁一下'
			  when age>=20 and age <30 then '20-30岁'
			  when age>=30 and age <40 then '30-40岁'
			  else '40岁以上' end ;
if
--统计每个性别用户等级高低的分布情况(level 大于5为高级)
select sex,
	if(level>5,'高','低') as level_type,
	count(distinct user_id) user_num
from user_info
group by sex,
	if(level>5,'高','低');

4)字符串函数
--每个月激活的用户数
select substr(firstactivetime,1,7) as month,
	count(distinct user_id) user_num
from user_info
group by substr(firstactivetime,1,7);

substr(string A,int start,int len)
备注:如果不指定截取长度,则从起始位一直截取到最后
不同手机品牌的用户数

extra类型
extra1string类型:{“systemtype”:“ios”,“education”:“master”,“marriage_status”:“1”,“phonebrand”:“iphoneX”}
extra2map<string.string>类型: {“systemtype”:“ios”,“education”:“master”,“marriage_status”:“1”,“phonebrand”:“iphoneX”}
-- 不同手机品牌的用户数
## 第一种情况
select get_json_object(extral,'$.phonebrand') as phone_brand,
		count(distinct user_id) user_num
from user_info
group by get_json_object(extral,'$.phonebrand');
## 第二种情况
select extral2['phonebrand'] as phone_brand,
		count(distinct user_id) user_num
from user_info
group by extra2['phonebrand'];

param1:需要解析的json字段;
param2:用key去除想要获取的value

5)聚合统计函数

– 如何取出在user_list_1表但不在user_list_2的用户?
在这里插入图片描述

select a.user_id,
	    a.user_name
from user_list_1 a left join user_list_2 b on a.user_id=b.user_id
where b.user_id is null;
--注:MySQL中的写法(子查询)
select user_id,
		user_name
from user_list_1
where user_id not in(select user_id from user_list_2)
--在2019年购买但是没有退款的用户
select a.user_name
from
(select distinct user_name 
from user_trade 
where year(dt)=2019)a
left join
(select distinct user_name
from user_refund 
where year(dt)=2019)b
on a.user_name=b.user_name
where b.user_name is null;
-- 在2017年、2018年、2019年都有交易的用户
-- 第一种写法
select distinct a.user_name
from trade_2017 a
join trade_2018 b on a.user_name=b.user_name
join trade_2019 c on b.user_name=c.user_name;

-- 第二种写法(在表的数据量很大时,推荐这种写法,hive中建议这种写法)
select a.user_name 
from
	(select distinct user_name 
	from trade_2017)a
join
	(select distinct user_name 
	from trade_2018)b on a.user_name=b.user_name
join
	(select distinct user_name 
	from trade_2019)c on b.user_name=c.user_name;
1.上传tar包 2.解压 tar -zxvf hive-1.2.1.tar.gz 3.安装mysql数据库 推荐yum 在线安装 4.配置hive (a)配置HIVE_HOME环境变量 vi conf/hive-env.sh 配置其中的$hadoop_home (b)配置元数据库信息 vi hive-site.xml 添如下内容: javax.jdo.option.ConnectionURL jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true JDBC connect string for a JDBC metastore javax.jdo.option.ConnectionDriverName com.mysql.jdbc.Driver Driver class name for a JDBC metastore javax.jdo.option.ConnectionUserName root username to use against metastore database javax.jdo.option.ConnectionPassword hadoop password to use against metastore database 5.安装hive和mysq完成后,将mysql的连接jar包拷贝到$HIVE_HOME/lib目录下 如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行) mysql -uroot -p #(执行下面的语句 *.*:所有库下的所有表 %:任何IP地址或主机都可以连接) GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION; FLUSH PRIVILEGES; 6. Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 /home/hadoop/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar 启动hive bin/hive ---------------------------------------------------------------------------------------------------- Hive几种使用方式: 1.Hive交互shell bin/hive 2.Hive JDBC服务(参考java jdbc连接mysql) 3.hive启动为一个服务器,来对外提供服务 bin/hiveserver2 nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 启动成功后,可以在别的节点上用beeline去连接 bin/beeline -u jdbc:hive2://mini1:10000 -n root 或者 bin/beeline ! connect jdbc:hive2://mini1:10000 4.Hive命令 hive -e ‘sql’ bin/hive -e 'select * from t_test'
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值