Hive安装详细步骤

Hive安装详细步骤

基础环境准备

Hive安装前,首先以安装完成Hadoop,且本文中使用MySQL作为Hive的元数据存储库,MySQL数据库也要提前准备好,关于Hadoop和MySQL的安装可参考另外两篇文章:

Hive安装包下载

直接从官网下载需要的版本即可:Hive官网

本文中安装的版本为:apache-hive-2.3.9

上传并解压安装包

本示例中Hive安装在/app目录下,解压后重命名为hive

cd /app
tar -zxvf apache-hive-2.3.9-bin.tar.gz
mv apache-hive-2.3.9-bin hive

配置环境变量

vim ~/.bashrc

# 添加以下内容
export HIVE_HOME=/app/hive
export PATH=$PATH:$HIVE_HOME/bin
export HADOOP_HOME=/app/hadoop-2.10.1

# 生效环境变量
source ~/.bashrc

查看Hive版本,正常输出无问题即可,如下:

# 查看Hive版本命令
hive --version
# 输出信息如下
Hive 2.3.9
Git git://chaos-mbp.lan/Users/chao/git/hive -r 92dd0159f440ca7863be3232f3a683a510a62b9d
Compiled by chao on Tue Jun 1 14:02:14 PDT 2021
From source with checksum 6715a3ba850b746eefbb0ec20d5a0187

修改Hive配置

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <!-- hive元数据的存储位置,如果没有 useSSL=false 会有大量警告 -->
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://199.188.166.113:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false</value>
        <description>JDBC connect string for a JDBC metastore</description>
    </property>
    <!-- 指定驱动程序 -->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <description>Driver class name for a JDBC metastore</description>
    </property>
    <!-- 连接数据库的用户名 -->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>hive</value>
        <description>username to use against metastore database</description>
    </property>
    <!-- 连接数据库的口令 -->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>zhaoty</value>
        <description>password to use against metastore database</description>
    </property>
    <!-- 数据默认的存储位置(HDFS) -->
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
        <description>location of default database for the warehouse</description>
    </property>
    <!-- 在命令行中,显示当前操作的数据库 -->
    <property>
        <name>hive.cli.print.current.db</name>
        <value>true</value>
        <description>Whether to include the current database in the Hive prompt.</description>
    </property>
    <!-- 在命令行中,显示当前操作的数据库 -->
    <property>
        <name>hive.cli.print.current.db</name>
        <value>true</value>
        <description>Whether to include the current database in the Hive prompt.</description>
    </property>
    <!-- 在命令行中,显示数据的表头 -->
    <property>
        <name>hive.cli.print.header</name>
        <value>true</value>
    </property>
    <!-- 操作小规模数据时,使用本地模式,提高效率 -->
    <!--
		当 Hive 的输入数据量非常小时,Hive 通过本地模式在单台机器上处理所有的任务。对于小数据集,执行时间会明显被缩短。
		当一个job满足如下条件才能真正使用本地模式:
		1. job的输入数据量必须小于参数:hive.exec.mode.local.auto.inputbytes.max(默认128MB)
		2. job的map数必须小于参数:hive.exec.mode.local.auto.tasks.max(默认4)
		3. job的reduce数必须为0或者1
	-->
    <property>
        <name>hive.exec.mode.local.auto</name>
        <value>true</value>
        <description>Let Hive determine whether to run in local mode automatically</description>
    </property>
</configuration>

上传MySQL驱动

将 mysql驱动上传到$HIVE_HOME/lib目录下,本机若存在直接CP即可,若没有,可从官网下载:MySQL :: Download Connector/J

初始化元数据

[hadoop@node3 bin]$ schematool -dbType mysql -initSchema
# 输出信息如下
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/app/hive/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/app/hadoop-2.10.1/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Metastore connection URL:        jdbc:mysql://199.188.166.113:3306/hive?allowPublicKeyRetrieval=true&createDatabaseIfNotExist=true&useSSL=false
Metastore Connection Driver :    com.mysql.cj.jdbc.Driver
Metastore connection User:       hive
Starting metastore schema initialization to 2.3.0
Initialization script hive-schema-2.3.0.mysql.sql
Initialization script completed
schemaTool completed

启动hive

# 启动hive服务之前,请先启动hadoop集群
[hadoop@node3 ~]$ hive
# 输出信息如下,成功进入hive
which: no hbase in (/home/hadoop/.local/bin:/home/hadoop/bin:/app/java/jdk1.8.0_181/bin:/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/app/mysql8/bin:/app/hadoop-2.10.1/bin:/app/hive/bin)
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/app/hive/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/app/hadoop-2.10.1/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]

Logging initialized using configuration in jar:file:/app/hive/lib/hive-common-2.3.9.jar!/hive-log4j2.properties Async: true
Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases.
hive (default)> 

Hive日志

Hive的日志默认存放在/tmp/hadoop目录下(hadoop为当前用户名),这个位置可以修改,也可以不改,但是要知道位置。

vi $HIVE_HOME/conf/hive-log4j2.properties
# 添加以下内容:
property.hive.log.dir=/app/hive/logs
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下为CentOS7下安装hive详细步骤: 1. 安装Java Hive需要Java环境支持,需要先安装Java。 ``` sudo yum install java-1.8.0-openjdk-devel.x86_64 ``` 2. 下载并解压缩Hive 找到Hive的官方网站,下载相应的版本,使用wget命令下载,比如: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz ``` 然后解压缩: ``` tar -xzvf apache-hive-3.1.2-bin.tar.gz ``` 3. 配置Hive环境变量 将Hive目录添加到环境变量中: ``` export HIVE_HOME=/path/to/hive export PATH=$PATH:$HIVE_HOME/bin ``` 4. 配置Hadoop环境变量 由于Hive需要与Hadoop配合使用,因此需要将Hadoop的环境变量添加到bashrc文件中。 ``` export HADOOP_HOME=/path/to/hadoop export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后再执行source ~/.bashrc命令,使配置的环境变量生效。 5. 配置Hive的配置文件 将Hive的配置文件进行备份: ``` cd /path/to/hive/conf cp hive-env.sh.template hive-env.sh cp hive-default.xml.template hive-site.xml ``` 然后编辑hive-env.sh文件,将Hadoop的路径添加进去: ``` export HADOOP_HOME=/path/to/hadoop ``` 接下来编辑hive-site.xml文件,将hadoop的配置文件路径添加进去: ``` <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value> <description>location of default database for the warehouse</description> </property> <property> <name>hive.metastore.uris</name> <value>thrift://localhost:9083</value> <description>Thrift URI for the remote metastore. Used by metastore client to connect to remote metastore.</description> </property> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:;databaseName=/path/to/metastore_db;create=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> ``` 6. 启动Hive 启动Hive的服务: ``` hive --service metastore & hive --service hiveserver2 & ``` 然后通过Hive的CLI工具连接到Hive服务: ``` hive ``` 7. 测试HiveHive CLI中输入下面的命令: ``` show databases; ``` 如果看到了默认的"default"数据库,则表明Hive安装并启动成功。 至此,CentOS7下安装Hive详细步骤就完成了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值