Hive3.1.2使用教程

4 篇文章 0 订阅
1 篇文章 0 订阅
本文详细描述了如何在Linux下安装ApacheHive3.1.2,包括下载、解压、配置MySQL连接、环境变量设置以及处理Hive安装过程中的包冲突问题。
摘要由CSDN通过智能技术生成

在这之前还得去下载apache-hive-3.1.2-bin.tar.gz包链接是https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz
下载完成后使用shell工具上传到Linux下的opt/software文件夹下
话不多说,直接启动安装

一、安装mysql

可以参考我之前的文章,本文章不再赘述
https://blog.csdn.net/waitingwere/article/details/135324512?spm=1001.2014.3001.5502

二、Hive安装

首先先去安装文件的目录

cd /opt/software

解压文件到/opt/module目录

tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/module

使用cd前往/opt/module目录

cd /opt/moudle/

把hive重命名

mv hive3.1.3-bin hive 

编辑Linux的环境变量

vim /etc/profile

以下是编辑的内容

#HIVE
export HIVE_HOME=/opt/modoule/hive
export PATH=$PATH:$HIVE_HOME/bin

重启变量使其生效

source /etc/profile

前往conf目录修改配置文件

cd $HIVE_HOME/conf

拷贝一份文件并且重命名

cp hive-env.sh.template hive-env.sh

编辑 hive-env.sh

 vim hive-env.sh

编辑以下内容

 export HADOOP_HOME=/root/software/hadoop-2.7.7

编辑hive-site.xml文件

 vim hive-site.xml

编辑内容如下

		<configuration>
            <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://master:3306/hivedb?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
            </property>
            <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
            </property>
            <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
            </property>
            <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>123456</value>
            </property>
        </configuration>

把jar包拷入lib文件里面

 cp /opt/software/mysql-connector-java-5.1.47-bin.jar $HIVE_HOME/lib

初始化元数据库

schematool -dbType mysql -initSchema

三、常见报错

包冲突

[root@master hive]# ./bin/hive
which: no hbase in (/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/opt/java/bin:/opt/maven/bin:/opt/bigdata/hadoop-3.2.2/bin:/opt/bigdata/hadoop-3.2.2/sbin:/opt/bigdata/spark-3.2.0/bin:/opt/bigdata/spark-3.2.0/sbin:/opt/java/bin:/opt/maven/bin:/root/bin)
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/bigdata/apache-hive-3.1.2-bin/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/bigdata/hadoop-3.2.2/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Exception in thread "main" java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V
        at org.apache.hadoop.conf.Configuration.set(Configuration.java:1357)
        at org.apache.hadoop.conf.Configuration.set(Configuration.java:1338)
        at org.apache.hadoop.mapred.JobConf.setJar(JobConf.java:536)
        at org.apache.hadoop.mapred.JobConf.setJarByClass(JobConf.java:554)
        at org.apache.hadoop.mapred.JobConf.<init>(JobConf.java:448)
        at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:5141)
        at org.apache.hadoop.hive.conf.HiveConf.<init>(HiveConf.java:5099)
        at org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.java:97)
        at org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:81)
        at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:699)
        at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:683)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:498)
        at org.apache.hadoop.util.RunJar.run(RunJar.java:323)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:236)

解决办法
hive 的 lib 目录和 hadoop 的 common/lib 目录下都有guava 包,但是包版本不一致,我们使用 guava-27.0-jre.jar 来覆盖 hive 的 lib目录下 guava-19.0.jar,一般都是这个原因

  • 9
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值