Hive最全总结,学习与面试,看这一篇就行了!

废话不多说,上题:

 

1.Hadoop中两个⼤表实现join的操作,简单描述。

(1)Hive中可以通过分区来减少数据量;(2)还可以通过优化HQL语句,⽐如只查询需要的字段,尽量避免全表、全字段查询;

2.Hive中存放是什么?

表。存的是和hdfs的映射关系,hive是逻辑上的数据仓库,实际操作的都是hdfs上的⽂ 件,HQL就是⽤sql语法来写的mr程序。

3.Hive与关系型数据库的关系?

没有关系,hive是数据仓库,不能和数据库⼀样进⾏实时的CURD操作。是⼀次写⼊多次读取的操作,可以看成是ETL⼯具。

4.Hive中的排序关键字有哪些?

sort by ,order by ,cluster by ,distribute by (1)sort by :不是全局排序,其在数据进⼊reducer前完成排序

(2)order by :会对输⼊做全局排序,因此只有⼀个reducer(多个reducer⽆法保证全局有序).只有⼀个reducer,会导致当输⼊规模较⼤时,需要较⻓的计算时间。

(3)cluster by :当distribute by 和sort by的字段相同时,等同于cluster by.可以看做特殊的distribute + sort

(4)distribute by :按照指定的字段对数据进⾏划分输出到不同的reduce中

5.⼤表和⼩表join

Map side join。将⼩表存⼊内存中,将⼩表复制多份,让每个map task内存中保留⼀份(⽐如存放到hash table中),这样只需要扫描⼤表。对于⼤表中的每⼀条记录key/value,在hash table中查找是否有相同的key,如果有,则连接后输出即可。

6.数据清洗怎么做的?怎么⽤spark做数据清洗

数据清洗的⽬的是为了保证数据质量,包括数据的完整性、唯⼀性、⼀致性、合法性和权威性。数据清洗的结果是对各种脏数据进⾏对应的处理⽅式,从⽽得到标准的、⼲净的、连续的数据,提供给数据统计和数据挖掘使⽤。

  1. 解决数据的完整性问题:(1) 通过其他信息不全;(2) 通过前后数据不全;(3) 如果实在⽆法不全,虽然可惜,但是还是要剔除掉进⾏统计。但是没必要删除,后续其他分析可能还需要。

  2. 解决数据的唯⼀性问题:(1) 根据主键进⾏去除,去除重复数据;(2) 制定⼀系列规则,保证根据某种规则下只保存⼀条数据。

  3. 解决数据权威性的问题:(1)选择最权威的数据作为统计和挖掘。

  4. 解决合法性的问题:(1)设定判定规则,通过特定的规则来判断字段或者值来确定数据是否需要被清洗。

7.Hadoop中⼆次排序怎么做?

在hadoop中⼀般都是按照key进⾏排序的,但是有时候还需要按照value进⾏排序。有两种办法进⾏⼆次排序:buffer and int memory sort和value-to-key conversion。

(1)Buffer and in memory sort主要是在reduce()函数中,将每个key对应的value值保存下 来,进⾏排序。但是缺点在于可能会出现out of memory。

(2)Value-to-key conversion主要思想是将key和value拼接成⼀个组合key,然后进⾏排序,这样reduce()函数获取的结果就实现了先按照key排序,然后按照value进⾏排序。需要注意的是,⽤户需要⾃⼰实现paritioner,以便只按照key进⾏数据划分。

8.Hadoop常见的join操作?

(1) reduce side join:是最简单的join操作,主要是在reduce端进⾏join操作;

(2) Map side join:之所以存在reduce side join,是因为在map端不能获得需要连接的全部的字段。Reduce side join⽐较低效,因为shuffle传输数据需要消耗⼤量的性能。

(3) Semijoin:半连接,对于reduce side join,跨机器的数据传输量特别⼤,成为join的⼀个瓶颈。如果能在map端过滤掉不会参加join的数据,那么可以⼤⼤节省⽹络IO。

9.Hive优化有哪些?

(1) 数据存储及压缩。针对hive中表的存储格式通常有orc和parquet,压缩格式⼀般使⽤snappy。相⽐与textfile格式表,orc占有更少的存储。因为hive底层使⽤MR计算架构,数据流是hdfs到磁盘再到hdfs,⽽且会有很多次,所以使⽤orc数据格式和snappy压缩策略可以降低IO读写,还能降低⽹络传输量,这样在⼀定程度上可以节省存储,还能提升hql任务执⾏效率;

(2) 通过调参优化。并⾏执⾏,调节parallel参数;调节jvm参数,重⽤jvm;设置map、reduce的参数;开启strict mode模式;关闭推测执⾏设置。

(3) 有效地减⼩数据集 将⼤表拆分成⼦表;结合使⽤外部表和分区表。

(4) SQL优化 ⼤表对⼤表:尽量减少数据集,可以通过分区表,避免扫描全表或者全字段;⼤表对⼩表:设置⾃动识别⼩表,将⼩表放⼊内存中去执⾏。

10.排名函数?

row_number() over(partition by regionX order by nameX desc) as tn 
1 93;
2 90;
3 90 
排名是连续的,相同的分数会有排名先后,前100名只有100个
rank() over(partiition by regionX order by nameX desc) as tn 
1 93;
2 90;
2 90;
4 89 
排名不是连续的,相同的分数是同名次,前100名只有100个
dense_rank() over() 
1 93;
2 90;
2 90;
3 89
排名是连续的,相同的分数是同名次,前100名可能多于100个

11.分析下hive数据倾斜问题,有什么解决⽅案?

倾斜原因:map输出数据按Key Hash分配到reduce中,由于key分布不均匀、或者业务数据本身的特点。等原因造成的reduce上的数据量差异过⼤。(1)key分布不均匀

(2)业务数据本身的特性

(3)SQL语句造成数据倾斜 解决⽅案:(1)参数调节:

hive.map.aggr=true
hive.groupby.skewindata=true

有数据倾斜的时候进⾏负载均衡,当选项设定为true,⽣成的查询计划会有两个MR Job。第⼀个MR Job中,Map的输出结果集合会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样处理的结果是相同GroupBy Key有可能被分发到不同的Reduce中,从⽽达到负载均衡的⽬的;第⼆个MR Job在根据预处理的数据结果按照Group By Key 分布到Reduce中(这个过程可以保证相同的 Group By Key 被分布到同⼀个Reduce中),最后完成最终的聚合操作。(2)SQL语句调节:1)选⽤join key 分布最均匀的表作为驱动表。做好列裁剪和filter操作,以达到两表join的时候,数据量相对变⼩的效果。

2)⼤⼩表Join:使⽤map join让⼩的维度表(1000条以下的记录条数)先进内存。在Map端完成Reduce。

3)⼤表Join⼤表:把空值的Key变成⼀个字符串加上⼀个随机数,把倾斜的数据分到不同的reduce上,由于null值关联不上,处理后并不影响最终的结果。

4)count distinct⼤量相同特殊值:count distinct时,将值为空的情况单独处理,如果是计算count distinct,可以不⽤处理,直接过滤,在做后结果中加1。如果还有其他计算,需要进⾏group by,可以先将值为空的记录单独处理,再和其他计算结果进⾏union.

12.请说明Hive中 sort by ,order by ,cluster by ,distribute by各代表什么意思?

order by :会对输⼊做全局排序,因此只有⼀个reducer(多个reducer⽆法保证全局有序).只有⼀个reducer,会导致当输⼊规模较⼤时,需要较⻓的计算时间。

sort by :不是全局排序,其在数据进⼊reducer前完成排序

distribute by :按照指定的字段对数据进⾏划分输出到不同的reduce中

cluster by :除了具有distribute by 的功能外还兼具sort by 的功能

13.描述数据中的null,在hive底层如何存储?

null在hive底层默认是⽤"\N"来存储的,所以在sqoop到mysql之前需要将为null的数据加⼯成其他字符,否则sqoop提示错误

14.Hive中 split、coalesce以及collect_list函数的⽤法?

split将字符串转化为数组

coalesce(T v1,T v2,...) 返回参数中的第⼀个⾮空值;如果所有值都为null,那么返回null

collect_list列出该字段所有的值,不去重 select collect_list(id) from table;

15.如何将⽂件导⼊到hive表中?

load data local inpath '/a.txt' overwrite into table test partition(xx='xx')

16.Hive的排序⽅式?

row_number() 是没有重复值的排序(即使两天记录相等也是不重复的),可以利⽤它来实现分⻚

dense_rank() 是连续排序,两个第⼆名仍然跟着第三名

rank() 是跳跃排序的,两个第⼆名下来就是第四名

17.请把下⼀语句⽤hive⽅式实现?

SELECT a.key,a.value
FROM a
WHERE a.key not in (SELECT b.key FROM b)

答案:

select a.key,a.value from a where a.key not exists (select b.key from b)

18.Hive内外部表的区别

删除表是否影响外部数据 内部表影响,外部表不影响

19.Hive如何做到权限管理

hive下可以修改配置后创建⽤户管理,但是仅仅是为了防⽌误操⽽已,如果要真的为了安全操作建议使⽤Kerberos(和Hadoop相同)

20.说说对桶表的理解

对数据的细化 取模分开存储数据,提⾼查询效率

 

21.Hive有哪些保存元数据的⽅式,有什么特点

(1)Single User Mode:默认安装hive,hive是使⽤derby内存数据库保存hive的元数据,这样是不可以并发调⽤hive的,这种模式时hive默认的存储模式。

(2)Multi User Mode:通过⽹络连接到⼀个数据库中,是最经常使⽤到的模式。假设使⽤本机mysql服务器存储元数据。这种存储⽅式需要在本地运⾏⼀个mysql服务器,并作如下配置(需要将mysql的jar包拷⻉到$HIVE_HOME/lib⽬录下)。

(3)Remote Server Mode:在服务器端启动⼀个 MetaStoreServer,客户端利⽤ Thrift 协议通过 MetaStoreServer 访问元数据库。

22.Hive能建多个库吗

可以

23.请谈⼀下Hive的特点是什么?hive和RDBMS有什么异同?

hive是基于Hadoop的⼀个数据仓库⼯具,可以将结构化的数据⽂件映射为⼀张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进⾏运⾏。其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专⻔的MapReduce应⽤,⼗分适合数据仓库的统计分析。

24.hive 是如何实现分区的?

(1)建表语句:   create table tablename (id) partitioned by (dt string) (2)增加分区:   alter table tablenname add partition (dt = ‘2016-03-06’) (3)删除分区:   alter table tablename drop partition (dt = ‘2016-03-06’)

25.hive 相对于 Oracle 来说有那些优点?

(1)存储,hive 存储在 hdfs 上,oracle 存储在本地⽂件系统。

(2)扩展性,hive 可以扩展到数千节点,oracle 理论上只可扩展到 100 台左右。

(3)单表存储,数据量⼤ hive 可以分区分桶,oracle 数据量⼤只能分表。

26.Hive 的 sort by 和 order by 的区别!

(1)order by 会对输⼊数据做全局排序,只有⼀个 reduce,数据量较⼤时,很慢。

(2)sort by 不是全局排序,只能保证每个 reduce 有序,不能保证全局有序,需设置mapred.reduce.tasks>1。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Hive SQL面试中,经常会遇到各种类型的问题。以下是一些常见的面试题型总结: 1. 常用函数:面试官可能会问你常用的Hive SQL函数,如concat、split、collect_set等。你可以根据实际情况进回答。 2. N日留存:这个问题主要是针对数据分析方向。你需要分析思路,根据给定的数据,计算用户在N天后仍然活跃的比例。 3. 连续登录:同样是针对数据分析方向。你需要准备好数据,然后根据给定的数据,分析用户的连续登录情况。 4. Top N:这个问题需要你准备好数据,并分析思路,根据给定的数据,找出排名前N的记录。 5. 列互转:这个问题可以分为转列和列转两种情况。你需要根据具体需求,使用Hive SQL语句将数据从转换为列,或者从列转换为。 6. 开窗函数:这个问题主要是针对数据分析方向。你需要使用开窗函数,对给定的数据进分析和计算。 7. 解析复杂数据类型:这个问题需要你处理一些复杂的数据类型,如JSON数据,使用Hive SQL函数进解析和提取。 以上是一些常见的Hive SQL面试题型总结,希望对你有所帮助。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [Hive Sql中六种面试题型总结](https://blog.csdn.net/lightupworld/article/details/108583548)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [Hive SQL面试题(附答案)](https://blog.csdn.net/a934079371/article/details/122227602)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小哭包

创作不易,给作者加个鸡腿吧

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值