Hive面试题

1、什么是Hive
Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类		SQL查询功能(HQL)

2、Hive的意义(最初研发的原因)
避免了去写MapReduce,提供快速开发的能力,减少开发人员的学习成本。 

3、Hive的内部组成模块,作用分别是什么

元数据:Metastore
	元数据包括:表名、表所属的数据库(默认是default)、表的拥有者、列/分区字段、表的类型(是否是外部表)、表的数据所在目录等;
	默认存储在自带的derby数据库中,推荐使用MySQL存储Metastore

   (1)解析器(SQL Parser):解析HQL语义
   (2)编译器(Physical Plan):将语HQL根据语义转换成MR程序
   (3)优化器(Query Optimizer):对逻辑执行计划进行优化。(对MR程序进行优化)
   (4)执行器(Execution):把任务提交到hadoop集群

4、Hive支持的数据格式
	可支持Text,SequenceFile,ParquetFile,ORC格式RCFILE等

5、进入Hiveshell窗口的方式
	1.hive
	2.	启动服务 hiveserver2
		beeline 
		! connect jdbc:hive2://主机名:10000

6、Hive数据库、表在HDFS上存储的路径是什么
	/user/hive/warehouse

7、like与rlike的区别
	like的内容不是正则,而是通配符。
	rlike的内容可以是正则,正则写法与Java一样。	
	
8、内部表与外部表的区别

删除内部表会直接删除元数据(metadata)及存储数据;删除外部表仅仅会删除元数据,HDFS上的文件并不会被删除;

9、分区表的优点是,分区字段的要求是
提高特定(指定分区)查询分析的效率
分区字段的要求:分区字段不能出现在表中已有的字段内	

10、分桶表的优点是,分桶字段的要求是
使取样(sampling)和join 更高效
分桶字段的要求:分桶字段必须是表中已有的字段
	
11、数据导入表的方式
1.直接向表中插入数据
	insert into table 表名 values (数据);
2.通过load方式加载数据
	覆盖:
	load data local inpath '本地数据路径' overwrite into table 表名 partition(分区字段='值');
	load data  inpath 'HDFS数据路径' overwrite into table 表名 partition(分区字段='值');
	添加:
	load data local inpath '本地数据路径'  into table 表名 partition(分区字段='值');
	load data  inpath 'HDFS数据路径'  into table 表名 partition(分区字段='值');
3.通过查询插入数据
	insert overwrite table 表名1 partition(分区字段='值') select 指定字段 from 表名2;
4.多插入模式
	from 原始表 
	insert overwrite table 被插入表1 partition(分区字段='值'') select 指定字段 
	insert overwrite table 被插入表2 partition(分区字段='值')  select 指定字段;	
5.查询语句中创建表并加载数据
	create table 表1 as select 指定字段 from 表2;
6.创建表时通过location指定加载数据路径
	create external table 表1 (表1字段...) row format delimited fields terminated by '分隔符' location 'HDFS路径';

12、数据导出表的方式
1.将查询的结果导出到本地
	insert overwrite local directory '本地路径' select 指定字段 from 表名;
2.将查询的结果格式化导出到本地或HDFS
	LOCAL:
	insert overwrite local directory '本地路径' row format delimited fields terminated by '分隔符' collection items terminated by '分隔符' select 指定字段 from 表名;
	HDFS:
	insert overwrite local directory '本地路径' row format delimited fields terminated by '分隔符' collection items terminated by '分隔符' select 指定字段 from 表名;
3.Hadoop命令导出到本地
	dfs -get /export/servers/exporthive/000000_0 /export/servers/exporthive/local.txt;
	dfs -get 表中数据在HDFS上的存储位置 本地路径;
4.hive shell 命令导出
	hive -e "select * from myhive.score;" > /export/servers/exporthive/score.txt
	hive -e "select 指定字段 from 表名;" > 本地路径;
5.export导出到HDFS上
	export table score to '/export/exporthive/score';
	export table 表名 to '本地路径';


13、order by与sort by的区别
	order by 是全局排序,一个MapReduce,而 sort by 是局部分区内部进行排序

14、where 与 having的区别
1.where是作用在表的所有字段,having是作用在查询的字段上。
2.在where子句中不能使用聚组函数,在having语句中可以使用聚组函数

15、distribute by何时使用,通常与哪个联合使用
按照指定的字段进行分区时,对数据进行分区时使用
通常和sort by联合使用,Hive要求distribute by语句要写在sort by语句之前

16、Cluster by何时使用
要根据某个字段进行分区,并且以这个字段进行排序时使用Cluster by

17、distribute by+sort by(相同字段) 与Cluster by的区别
	 cluster by 不能定义排序规则,只能正序排列,而 distribute by+sort by 可以定义排序规则
	
18、hive -e/-f/-hiveconf分别是什么意思
	hive -e 后面的参数是‘命令行’
	hive -f 后面的参数是文件
	hive -hiveconf 设置hive运行时候的参数配置
	
	
19、hive声明参数有哪些方式,优先级是什么
	配置文件(配置文件参数)
	hive -hiveconf (命令行参数)
	在hive的shell窗口set(参数声明)	
	
	参数声明>命令行参数>配置文件参数
	
20、编写hiveUDF代码,方法名称叫什么
	evaluate

21、企业中hive常用的数据存储格式是什么?常用的数据压缩格式是什么?
	在实际的项目开发当中,hive表的数据存储格式一般选择:orc或parquet。压缩方式一般选择snappy。

22、hive自定义函数的类型
1.UDF(User-Defined-Function) 一进一出
2.UDAF(User- Defined Aggregation Funcation) 聚集函数,多进一出。Count/max/min
3.UDTF(User-Defined Table-Generating Functions) 一进多出,如lateral view explore)

23、Fetch抓取中
    设置more有什么效果
	执行某些查询语句,不会执行mapreduce程序
	设置none有什么效果
	执行查询语句,所有的查询都会执行mapreduce程序
		   
24、本地模式有什么好处
	在数据量较小时,提高查询效率
原因:
	查询数据的程序运行在提交查询语句的节点上运行(不提交到集群上运行),

25、当一个key数据过大导致数据倾斜时,如何处理
当发生数据倾斜时,使用局部聚和可以起到性能调优的效果(在Map端进行聚合)
当发生倾斜时,查询语句会转化成至少两个MR程序,第一个程序进行局部聚和,第二个MR程序进行最终聚和。

26、Count(distinct) 的替换语句如何编写
使用嵌套查询
例:
select count(distinct id) from score;
	转|换
select count(id) from (select id from score group by id) a;

27、如何使用分区剪裁、列剪裁
什么是分区剪裁:需要哪个分区,就获取哪个分区的数据
什么是列剪裁:需要哪个列,就获取哪个列的数据

28、如何理解动态分区调整
以第一个表的分区规则,来对应第二个表的分区规则,将第一个表的所有分区,全部拷贝到第二个表中来,第二个表在加载数据的时候,不需要指定分区了,直接用第一个表的分区即可

29、数据倾斜时,如何将众多数据写入10个文件
1.设置reduce数量10,使用id,对id进行分区distribute by 
2.设置reduce数量10,然后使用 distribute by rand()
rand字段为随机数 ,从而随机的将数据写入到文件中 

30、reduce数量的计算是什么
决定reduce数量的因素,
参数1:每个Reduce处理的最大数据量 
参数2:每个任务最大的reduce数
计算reducer数的公式
N=min(参数2,总输入数据量/参数1)

31、并行执行有什么好处
在没有依赖的前提下,开启并行执行(多任务多阶段同时执行),从而起到优化执行效率的作用

32、严格模式不能执行哪些命令
1、用户不允许扫描所有分区
2、使用了order by语句的查询,要求必须使用limit语句
3、限制笛卡尔积的查询

33、JVM重用有什么好处
重复利用JVM,以减少JVM开启和关闭的次数,减少任务开销,提高效率

34、什么是MR本地计算
数据存储后,计算这批数据的程序已经写完,程序在进行分发时,优先将程序分发到程序所用到数据所在的节点。

35、先join后过滤的优化方案

 先过滤后关联(join)
 
	例如
SELECT a.id   FROM bigtable a   LEFT **JOIN ori b ON a.id = b.id**   WHERE **b.id <= 10;**
优化方案
1、SELECT a.id   FROM ori    LEFT JOIN bigtable b ON **(b.id <= 1**0 AND **a.id = b.id**);
2、SELECT a.id   FROM bigtable a    RIGHT JOIN (
 SELECT id   FROM ori  WHERE id <= 10 
  ) b ON a.id = b.id;


36、影响Map数量的因素
当文件大小很小时,影响map的数量的因素是文件的个数
当文件大小很大时,影响map的数量的因素是数据块的数量

37、什么是MR本地模式
任务提交时,运行在提交HQl 所在的节点,不提交到集群。(本地计算提交到集群。本地模式不提交到集群)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱纹身的big数据

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值