hive mysql环境搭建_Hive介绍及环境搭建

本文介绍了Hive作为一个基于Hadoop的数据仓库工具,如何通过SQL查询HDFS数据。接着详细阐述了Hive环境搭建的过程,包括安装Hive、配置环境变量、修改配置文件以使用MySQL作为元数据存储,以及在HDFS上创建相关目录。最后提到了在MySQL中创建元数据仓库和初始化操作,以及启动Hive进行交互式Shell操作。
摘要由CSDN通过智能技术生成

Hive介绍

Hive是一个构建于Hadoop顶层的数据仓库。它依赖于HDFS和MapReduce,对HDFS数据提供类似于SQL的操作,可以将SQL语句转换为MapReduce任务进行运行。这样,Hive实现了以SQL查询方式来分析存储在HDFS中的数据,使得不熟悉MapReduce的用户也可以很方便地利用SQL语言查询、汇总、分析数据,也使得开发人员可以把己写的mapper和reducer作为插件来支持Hive做更复杂的数据分析。

Hive中的表结构信息等叫做元数据。虽然Hive不是数据库,但它需要使用数据库存储元数据。默认采用Derby存储,也可以改为MySQL存储。而除去元数据之外的数据,存储在Hadoop的HDFS文件系统中。因此,Hive相比传统的关系数据库,在数据规模上有绝对优势,并且有很强的可扩展性,但是实时性比较差。

9e30ed2e9a1989ffca128a4dc631d950.png

Hive环境搭建

Hive会用到HDFS存储数据,因此要先安装Hadoop。

安装Hive

tar -zxvf ./apache-hive*.tar.gz -C /opt

mv /opt/apache-hive* /opt/hive

配置环境变量

export HIVE_HOME=/opt/hive

export PATH=${HIVE_HOME}/bin:$PATH

修改配置文件

在${HIVE_HOME}目录下,主要进行如下几个配置文件的修改:

conf/hive-default.xml

conf/hive-site.xml

conf/hive-env.sh

conf/hive-log4j2.properties

其中,conf/hive-site.xml表示hive的个性化配置,它可以覆盖conf/hive-default.xml中的默认配置。如果想用MySQL作为元数据仓库,典型的配置如下:

javax.jdo.option.ConnectionURL

jdbc:mysql://localhost:3306/hive_metadata?createDatabaseIfNotExist=true&autoReconnect=true&useSSL=false

JDBC connect string for a JDBC metastore

javax.jdo.option.ConnectionDriverName

com.mysql.jdbc.Driver

Driver class name for a JDBC metastore

javax.jdo.option.ConnectionUserName

hive

username to use against metastore database

javax.jdo.option.ConnectionPassword

hive

password to use against metastore database

hive.metastore.warehouse.dir

/user/hive/warehouse

location of default database for the warehouse

hive.exec.scratchdir

/user/hive/tmp

HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.

hive.querylog.location

/user/hive/log

Location of Hive run time structured log file

在HDFS上创建目录

${HADOOP_HOME}/bin/hdfs namenode -format

${HADOOP_HOME}/sbin/start-dfs.sh

${HADOOP_HOME}/bin/hdfs dfs -mkdir -p /user/hive/warehouse

${HADOOP_HOME}/bin/hdfs dfs -mkdir -p /user/hive/tmp

${HADOOP_HOME}/bin/hdfs dfs -mkdir -p /user/hive/log

${HADOOP_HOME}/bin/hdfs dfs -chmod -R 777 /user/hive/warehouse

${HADOOP_HOME}/bin/hdfs dfs -chmod -R 777 /user/hive/tmp

${HADOOP_HOME}/bin/hdfs dfs -chmod -R 777 /user/hive/log

创建MySQL元数据仓库

上传MySQL的JDBC库:

cp mysql-connector-java-*-bin.jar ${HIVE_HOME}/lib

新建数据库并新建只允许操作该数据库的用户

mysql -u root -p

mysql> create database hive_metadata;

mysql> create user 'hive'@'%' identified by 'hive';

mysql> grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive';

mysql> flush privileges;

初始化操作

schematool -dbType mysql -initSchema

Hive启动

使用Hive交互式Shell进行操作,只需要运行hive命令即可。

在Hive Shell中,可以使用类SQL语句进行表的创建和查询,如:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值