hive相对于oracle的优点,【Hive】Hive面试题

1、hive的join有几种方式,怎么实现join的?

left join

--以左表为基准,不符合的值以null值显示

--工作中以left join 居多,大表加载小表的形式

select empno,ename,emp.deptno,dname from emp left join dept on

emp.deptno=dept.deptno;

right join

--以右表为基准,不符合的值以null值显示

select empno,ename,emp.deptno,dept.deptno from emp right join

dept on emp.deptno=dept.deptno;

full join

select empno,ename,emp.deptno,dept.deptno from emp full join

dept on emp.deptno=dept.deptno;

===============================================

2、hive内部表与外部表的区别

Hive

创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。

在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。这样外部表相对来说更加安全些,数据组织也更加灵活,方便共享源数据。

1、在导入数据到外部表,数据并没有移动到自己的数据仓库目录下,也就是说外部表中的数据并不是由它自己来管理的!而表则不一样;

2、在删除表的时候,Hive将会把属于表的元数据和数据全部删掉;而删除外部表的时候,Hive仅仅删除外部表的元数据,数据是不会删除的!

===========================================================

3、hive表关联要注意什么,任意两张表都可以关联么?

===========================================================

4、hive是如何实现分区的?

Hive中的分区就是分目录,把一个大的数据集根据业务需要分割成更小的数据集。

===========================================================

5、hive支持not in 么?

hive在0.13版本后已经支持in和not in了!hive已经越来越像我们平时使用的关系型数据库了!

===============================================

6、 Hive有那些方式保存元数据的,各有那些特点。

1) 内存数据库derby,较小,不常用

2) 本地mysql,较常用

3) 远程mysql,不常用

===============================================

7、hive如何优化,列举说明

hive查询操作优化

-------group by 优化---------

set hive.groupby.skewindata=true 如果是group

by过程出现倾斜应该设置为true;

set hive.groupby.mapaggr.checkintenval=1000000;

这个是group的键对应的记录条数超过这个值则会进行优化

-----------join优化-------------------

set

hive.optimize.skewjoin=true;如果是join过程出现倾斜 应该设置为true

set

hive.skewjoin.key=1000000;--这个是join的键对应的记录条数超过这个值则会进行优化

-----------mapjoin-----------------

当表小于25mb的时候,小表自动注入内存

set hive.auto.convert.join=true;

set

hive.mapjoin.smalltable.filesize=25mb; 默认值是25mb

===========================================================

8、hive底层与数据库交互原理

Hive的查询功能是由hdfs + mapreduce结合起来实现的

Hive与mysql的关系:只是借用mysql来存储hive中的表的元数据信息,称为metastore

===========================================================

9、hive如何权限控制?

Hive从0.10版本(包含0.10版本)以后可以通过元数据来控制权限,Hive-0.10之前的版本对权限的控制主要是通过Linux的用户和用户组来控制,不能对Hive表的CREATE、SELECT、DROP等操作进行控制,当然Hive基于元数据来控制权限也不是完全安全的,目的就是为了防止用户不小心做了不该做的操作

===========================================================

10、hive能像关系型数据库那样,建多个库么?

===========================================================

11、hive中sort by和order by的区别?

使用order by会引发全局排序

使用distribute和sort进行分组排序

===========================================================

12、hive中的压缩格式各有什么区别?

RCFile

RCFile是Hive推出的一种专门面向列的数据格式。

它遵循“先按列划分,再垂直划分”的设计理念。当查询过程中,针对它并不关心的列时,它会在IO上跳过这些列。需要说明的是,RCFile在map阶段从

远端拷贝仍然是拷贝整个数据块,并且拷贝到本地目录后RCFile并不是真正直接跳过不需要的列,并跳到需要读取的列,

而是通过扫描每一个row group的头部定义来实现的,但是在整个HDFS Block 级别的头部并没有定义每个列从哪个row

group起始到哪个row

group结束。所以在读取所有列的情况下,RCFile的性能反而没有SequenceFile高。

TextFile:

Hive默认格式,数据不做压缩,磁盘开销大,数据解析开销大。

可结合Gzip、Bzip2、Snappy等使用(系统自动检查,执行查询时自动解压),但使用这种方式,hive不会对数据进行切分,从而无法对数据进行并行操作。

SequenceFile:

SequenceFile是Hadoop API

提供的一种二进制文件,它将数据以的形式序列化到文件中。这种二进制文件内部使用Hadoop 的标准的Writable

接口实现序列化和反序列化。它与Hadoop API中的MapFile 是互相兼容的。Hive 中的SequenceFile

继承自Hadoop API 的SequenceFile,不过它的key为空,使用value 存放实际的值, 这样是为了避免MR

在运行map 阶段的排序过程

===========================================================

13、hive的两张表关联,使用mapreduce是怎么写的?

===========================================================

14、hive相对于Oracle来说有哪些优点?

hive 是数据仓库,oracle是数据库,hive

能够存储海量数据,hive还有更重要的作用就是数据分析,最主要的是免费。

1

hive表关联查询,如何解决数据倾斜的问题?

倾斜原因:

map输出数据按key

Hash的分配到reduce中,由于key分布不均匀、业务数据本身的特、建表时考虑不周、等原因造成的reduce

上的数据量差异过大。

1)、key分布不均匀;

2)、业务数据本身的特性;

3)、建表时考虑不周;

4)、某些SQL语句本身就有数据倾斜;

如何避免:对于key为空产生的数据倾斜,可以对其赋予一个随机值。

解决方案

1>.参数调节:

hive.map.aggr = true

hive.groupby.skewindata=true

有数据倾斜的时候进行负载均衡,当选项设定位true,生成的查询计划会有两个MR Job。第一个MR

Job中,Map的输出结果集合会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样处理的结果是相同的Group

By Key有可能被分发到不同的Reduce中,从而达到负载均衡的目的;第二个MR Job再根据预处理的数据结果按照Group By

Key 分布到 Reduce 中(这个过程可以保证相同的 Group By Key

被分布到同一个Reduce中),最后完成最终的聚合操作。

2>.SQL 语句调节:

1)、选用join key分布最均匀的表作为驱动表。做好列裁剪和filter操作,以达到两表做join

的时候,数据量相对变小的效果。

2)、大小表Join:

使用map join让小的维度表(1000 条以下的记录条数)先进内存。在map端完成reduce.

4)、大表Join大表:

把空值的key变成一个字符串加上随机数,把倾斜的数据分到不同的reduce上,由于null

值关联不上,处理后并不影响最终结果。

5)、count distinct大量相同特殊值:

count distinct 时,将值为空的情况单独处理,如果是计算count

distinct,可以不用处理,直接过滤,在最后结果中加1。如果还有其他计算,需要进行group

by,可以先将值为空的记录单独处理,再和其他计算结果进行union。

2.

请谈一下hive的特点是什么?hive和RDBMS有什么异同?

hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。

3. 请把下一语句用hive方式实现?

SELECT a.key,a.value

FROM a

WHERE a.key not in (SELECT b.key FROM b)

答案:

select a.key,a.value from a where a.key not exists (select b.key

from b)

4. Multi-group by

是hive的一个非常好的特性,请举例说明

from A

insert overwrite table B

select A.a, count(distinct A.b) group by A.a

insert overwrite table C

select A.c, count(distinct A.b) group by A.c

5. 请说明hive中 Sort By,Order By,Cluster

By,Distrbute By各代表什么意思。

order

by:会对输入做全局排序,因此只有一个reducer(多个reducer无法保证全局有序)。只有一个reducer,会导致当输入规模较大时,需要较长的计算时间。

sort by:不是全局排序,其在数据进入reducer前完成排序。

distribute by:按照指定的字段对数据进行划分输出到不同的reduce中。

cluster by:除了具有 distribute by 的功能外还兼具 sort by 的功能。

6.简要描述数据库中的

null,说出null在hive底层如何存储,并解释selecta.* from t1 a left outer join t2 b

on a.id=b.id where b.id is null; 语句的含义

null与任何值运算的结果都是null, 可以使用is null、is not null函数指定在其值为null情况下的取值。

null在hive底层默认是用'\N'来存储的,可以通过alter table test SET

SERDEPROPERTIES('serialization.null.format' = 'a');来修改。

查询出t1表中与t2表中id相等的所有信息。

7.写出hive中split、coalesce及collect_list函数的用法(可举例)。

Split将字符串转化为数组。

split('a,b,c,d' , ',') ==> ["a","b","c","d"]

COALESCE(T v1, T v2, …) 返回参数中的第一个非空值;如果所有值都为 NULL,那么返回NULL。

collect_list列出该字段所有的值,不去重 select collect_list(id)

from table;

8.写出将 text.txt 文件放入 hive 中 test

表‘2016-10-10’ 分区的语句,test 的分区字段是 l_date。

LOAD DATA LOCAL INPATH '/your/path/test.txt' OVERWRITE INTO TABLE

test PARTITION (l_date='2016-10-10')

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值