hive基础知识

一、架构原理

二、常用命令

建表
内部表

内部表数据存储的位置是hive.metastore.warehouse.dir(默认:/user/hive/warehouse)
删除内部表会直接删除元数据(metadata)及存储数据。
对内部表的修改会将修改直接同步给元数据。

create table if not exists dim_crsv_dty
(
id string COMMENT '维度主键',
crsv_dty_val string COMMENT '维度属性',
comment string COMMENT '注释',
src_sys string COMMENT '来源系统'
)
comment '客服任务维表'
partitioned by (dt string)
row format delimited fields terminated by '\t';

外部表
外部表数据的存储位置由自己制定。
删除外部表仅仅会删除元数据,HDFS上的文件并不会被删除。
而对外部表的表结构和分区进行修改,则需要修复(MSCK REPAIR TABLE table_name)。

create external table t2(
id      int,
name    string,
hobby   array<string>,
add     map<String,string>
)
row format delimited
fields terminated by ','
collection items terminated by '-'
map keys terminated by ':'
location '/user/t2';
desc formatted table_name;

分桶
利于reduct的join

CREATE TABLE bucketed_users (id INT, name STRING) 
CLUSTERED BY (id) SORTED BY (id ASC) INTO 4 BUCKETS;

对桶中的数据进行采样

hive> SELECT * FROM bucketed_users 
> TABLESAMPLE(BUCKET 1 OUT OF 4 ON id); 
0 Nat 
4 Ann 

桶的个数从1开始计数。因此,前面的查询从4个桶的第一个中获取所有的用户。 对于一个大规模的、均匀分布的数据集,这会返回表中约四分之一的数据行。我们 也可以用其他比例对若干个桶进行取样(因为取样并不是一个精确的操作,因此这个 比例不一定要是桶数的整数倍)。
改表
改注释

alter table table_name set  tblproperties ('comment' = "客户管理销售计划表");

加字段

alter table dws_flow_web_page_visit_d add columns (visit_times bigint);

改字段

alter table to8to_rawdata.sem_360_keyword change column old_name new_name int;
alter table dwd.dwd_flow_sdk_event_d change column openid openid string after page_click_value;

导数

load data inpath '/user/richard_chen/dim/dim_ctc.txt' 
into table dim_ctc partition(dt=20180206);

字段截取

regexp_extract('to8to_pc', "(.*?)(_)(.*?)(&|$)", 1)
regexp_extract(regexp_extract(a.url, '(.+?)(?=\\?|\\%|$|#)', 0), '(.+/[^0-9]*)', 1)

基础函数
https://www.cnblogs.com/MOBIN/p/5618747.html
时间函数
当前日期、时间

select current_date;
select current_timestamp;
select unix_timestamp(); --获得当前时区的UNIX时间戳

str转时间戳

select unix_timestamp('2017-09-15 14:23:00'); 
select unix_timestamp('2017-09-15 14:23:00','yyyy-MM-dd HH:mm:ss');

时间戳转str

select from_unixtime(1505456567); 
select from_unixtime(1505456567,'yyyy-MM-dd HH:mm:ss'); 
select from_unixtime(unix_timestamp(),'yyyy-MM-dd HH:mm:ss'); --获取系统当前时间

str转str
方法1: from_unixtime+ unix_timestamp
–20171205转成2017-12-05

select from_unixtime(unix_timestamp('20171205','yyyymmdd'),'yyyy-mm-dd') from dual;

–2017-12-05转成20171205

select from_unixtime(unix_timestamp('2017-12-05','yyyy-mm-dd'),'yyyymmdd') from dual;

方法2: substr + concat
–20171205转成2017-12-05

select concat(substr('20171205',1,4),'-',substr('20171205',5,2),'-',substr('20171205',7,2)) from dual;

–2017-12-05转成20171205

select concat(substr('2017-12-05',1,4),substr('2017-12-05',6,2),substr('2017-12-05',9,2)) from dual;

str转time

select to_date('2017-09-15 11:12:00');

time转str
方法3: date_format
–current_timestamp转str

select date_format(current_timestamp, 'yyyy-MM-dd HH:mm:ss');

日期差

select datediff('2017-09-15','2017-09-01') from dual;
--14

日期加减

hive> select date_add('2017-09-15',1) from dual;    
2017-09-16
hive> select date_sub('2017-09-15',1) from dual;    
2017-09-14

三、UDF函数

UDF
UDAF
UDTF

四、性能调优

数据倾斜
调参数

SET mapred.map.tasks  =20 ;
SET mapred.reduce.tasks  =10 ;
set mapred.min.split.size = 16252928;
set mapred.max.split.size = 67108864;
set hive.merge.mapredfiles = true;
set hive.merge.smallfiles.avgsize=67108864;

场景验证

累计计算
方法一:

select a.dt, dau,
  sum(dau) over(order by a.dt rows between UNBOUNDED PRECEDING AND CURRENT ROW) as mau1,
  sum(dau) over(partition by substr(dt, 1, 6) order by dt) as mau2
from 
(
select dt, count(distinct dvc_id) as dau
from tbl
group by dt
) a;

方法二:

select a.dt, max(a.dau), sum(case when a.dt >= b.min_dt then 1 else 0 end) as mau1
from 
(
select dt, count(distinct dvc_id) as dau
from tbl
group by dt
) a
left join
(
select dvc_id, min(dt) as min_dt
from tbl
group by dvc_id
) b
group by a.dt;
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Hive是一个基于Hadoop的数据仓库工具,它提供了一种类似SQL的查询语言,用于将结构化数据存储在Hadoop集群上,并进行查询和分析。下面是一些关于Hive基础知识的选择题: 1. Hive的主要特点是什么? a) 提供类似SQL的查询语言 b) 可以在Hadoop集群上进行数据存储和分析 c) 可以处理结构化和半结构化数据 d) 所有选项都正确 答案:d) 所有选项都正确 2. Hive将数据存储在哪里? a) HBase b) Hadoop Distributed File System (HDFS) c) Cassandra d) MySQL 答案:b) Hadoop Distributed File System (HDFS) 3. Hive中的可以与以下哪种文件格式关联? a) CSV b) JSON c) Parquet d) 所有选项都正确 答案:d) 所有选项都正确 4. Hive使用什么来对数据进行分区和排序? a) HDFS b) Tez c) MapReduce d) Apache Spark 答案:c) MapReduce 5. Hive中的数据查询和分析通过什么来实现? a) Hive Query Language (HQL) b) Structured Query Language (SQL) c) Apache Hive d) Apache Hadoop 答案:a) Hive Query Language (HQL) 总之,Hive是一个基于Hadoop的数据仓库工具,具有类似SQL的查询语言,可以在Hadoop集群上存储和分析结构化和半结构化数据。它使用HDFS来存储数据,可以与多种文件格式关联,并使用MapReduce来进行数据分区和排序。数据查询和分析通过Hive Query Language (HQL)来实现。 ### 回答2: Hive是一款基于Hadoop的数据仓库工具,它提供了方便的数据查询和分析的功能。接下来我将回答一些关于Hive基础知识的选择题。 1. Hive中的是如何定义的? 答案:C. 使用HiveQL语句创建。 2. 在Hive中,数据是如何存储的? 答案:B. 在Hadoop的HDFS文件系统中。 3. Hive中的分区是用来做什么的? 答案:A. 对数据进行逻辑上的划分,便于查询优化和数据管理。 4. 在Hive中,可以使用哪种语言进行数据查询? 答案:D. HiveQL。 5. 在Hive中,用来处理复杂逻辑和数据运算的是什么? 答案:B. Hive的UDF(用户定义函数)和UDAF(用户定义聚合函数)。 6. Hive的数据存储格式有哪些? 答案:A. 文本文件(TextFile)、序列文件(SequenceFile)和Parquet等。 7. Hive中的数据可以通过什么方式进行加载? 答案:C. 使用Hive的LOAD DATA语句。 8. 在Hive中,用来创建管理结构的是什么? 答案:B. Hive的元数据存储。 9. Hive的优势是什么? 答案:C. 简化了对Hadoop数据的查询和分析。 10. 使用Hive时,可以通过什么方式进行数据的导入和导出? 答案:D. 使用Hive的导入和导出命令。 以上是关于Hive基础知识的一些选择题的答案。Hive是一个功能强大且易于使用的工具,可以帮助用户更好地处理和分析大数据。掌握Hive基础知识对于进行数据仓库的建设和数据分析工作非常重要。 ### 回答3: Hive是一个开源的数据仓库基础架构,运行在Hadoop集群上。以下是关于Hive基础知识选择题的回答: 1. Hive中的数据存储在哪里? 答:Hive中的数据存储在Hadoop分布式文件系统(HDFS)中。 2. Hive中的数据是如何组织的? 答:Hive中的数据是以(Tables)的形式进行组织的。 3. Hive中的的结构是如何定义的? 答:Hive中的的结构是通过DDL语句来定义的,包括的名称、列名称、数据类型等信息。 4. Hive中的查询语言是什么? 答:Hive中的查询语言类似于SQL,称为HiveQL或HQL。 5. Hive中的查询语句是如何转换为MapReduce作业的? 答:Hive将查询语句转换为逻辑查询计划,然后将逻辑查询计划转换为物理查询计划,最后将物理查询计划转换为MapReduce作业。 6. Hive中的分区是什么? 答:Hive中的分区是按照一个或多个列的值分成不同的目录,并且每个目录下存储相应分区的数据。 7. Hive中的桶是什么? 答:Hive中的桶是将数据分成固定数量的文件的一种方式,目的是提高查询性能。 8. Hive中的内部外部有什么区别? 答:内部的数据和元数据都由Hive管理,删除内部删除的数据;而外部的数据和元数据存储在外部的文件系统中,删除外部时只删除元数据。 9. Hive中的UDF是什么? 答:UDF全称为用户定义函数(User-Defined Functions),是由用户自定义的用于特定数据处理操作的函数。 10. Hive中的压缩是如何实现的? 答:Hive中的压缩是通过执行MapReduce作业时将数据进行压缩,以减少数据的存储空间和提高查询性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值