Hive的基本应用

实验

目的

要求

 

目的:

  1. 了解Hive架构,掌握Hive环境部署;
  2. 了解Hive与Hadoop及传统关系型数据库的对比;
  3. 掌握Hive中DDL和DML的使用;
  4. 了解Hive高级应用;
  5. Hive内置函数使用及Hive自定义函数;
  6. 了解Hive常用优化策略;

 

 

 

 

 

 

 

 

 

 

 

 

  1. Java jdk 1.7;
  2. apache-maven-3.6.0;
  3. Myeclipse C10;
  4. CDH Hadoop集群;
  5. 已配置Hive;
  6. 具体规划:

主机名

IP地址

服务描述

Cmaster

192.168.159.170

主控节点

Cslaver1

192.168.159.171

数据节点

Cslaver2

192.168.159.172

数据服务

 

 

 

 

 

练习内容

任务一:Hive DDL的使用;

1、使用命令“hive”启动hive,进入Hive控制台;

2、创建内部表;

3、创建外部表;

4、创建分区表

5、使用hive DDL命令进行一些简单的操作;

任务二:Hive DML的使用;

1、创建文本并写入数据;

2、进行DML操作;

3、创建hdfs用于存放文件的位置,并查看是否创建成功;

4、上传数据文件至hdfs;

5、查看上传的文件内容;

6、对上传的数据文件进行基本操作;

7、将查询结果插入hive表中;

8、导出hive的表数据;

9、查看导出的数据;

 

任务三:Hive内置函数的基本操作;

1、获取所有函数;

2、查看指定函数的使用方法;

3、进行表操作;

4、查看concat的使用方法;

5、连接ename,job字段;

任务四:Hive UDF开发;

1、创建maven工程项目Hive;

1.1、创建项目;

 

1.2、修改pom.xml文件,添加指定依赖;

2、Hive UDF开发;

2.1、编写HelloUDF.Java文件;

2.2、导出项目为jar包;

2.3、上传jar包至集群中;

3、编辑jar包上传至服务器,并将自定义函数UDF添加到Hive中;

4、查看自定义函数中是否有以上传的;

5、使用自定义函数进行查询操作;

 

任务五:调优策略;

1、并行执行及JVM重用;

2、推测执行,合并小文件;

 

出现的问题与解决方案

排错一

错误:装载hdfs至hive失败

排错思路:

  1. 查看指定目录是否正确;
  2. 查看指定文件是否正确;
  3. 查看命令应用是否正确;

原因分析:之前在上传数据文件至hdfs时,系统默认删除了源文件

解决方案:重新编写数据文件再次上传;

排错二:

错误:运行自定义函数失败;

排错思路:

  1. 检查jar包是否合适;
  2. 检查环境是否合适;
  3. 检自定义函数是否正确

原因分析:开发环境开发自定义函数时在jdk1.8环境,而Hadoop集群环境中使用的是jdk1.7环境,jar包jdk版本过高;

解决方案:更改maven项开发环境为jdk1.7版本,重新打包项目为jar包上传至hdfs中使用;

 

知识拓展

1. Hive介绍

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。

Hive是SQL解析引擎,它将SQL语句转译成M/R Job然后在Hadoop执行。

 

2. Hive架构

    用户接口,包括 CLI,JDBC/ODBC,WebUI

    元数据存储,通常是存储在关系数据库如 mysql, derby 中

    解释器、编译器、优化器、执行器

    Hadoop:用 HDFS 进行存储,利用 MapReduce 进行计算

Ps:hive的元数据并不存放在hdfs上,而是存储在数据库中(metastore),目前只支持 mysql、derby。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。

元数据就是描述数据的数据,而Hive的数据存储在Hadoop HDFS

数据还是原来的文本数据,但是现在有了个目录规划。

 

3. Hive与Hadoop的关系

Hive利用HDFS存储数据,利用MapReduce查询数据。

 

4. Hive安装部署

Hive只是一个工具,不需要集群配置。

export HIVE_HOME=/usr/local/hive-2.0.1

export PATH=PATH:

HIVE_HOME/bin

配置MySql,如果不进行配置,默认使用derby数据库,但是不好用,在哪个地方执行./hive命令,哪儿就会创建一个metastore_db

MySQL安装到其中某一个节点上即可。

 

5. Hive的thrift服务

可以安装在某一个节点,并发布成标准服务,在其他节点使用beeline方法。

启动方式,(假如是在master上):

启动为前台服务:bin/hiveserver2

启动为后台:nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err &

 

连接方法:

hive/bin/beeline 回车,进入beeline的命令界面

输入命令连接hiveserver2

beeline> !connect jdbc:hive2://master:10000

beeline> !connect jdbc:hive2://localhost:10000

(master是hiveserver2所启动的那台主机名,端口默认是10000)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值