hive配置教程详解

使用到的工具
xshell
centos7
xtpf
apache-hive-2.3.6-bin
mysql的驱动

第一步:将下载好的hive安装包上传到/usr/local目录下解压

解压命令 tar -zxvf apache-hive-2.3.6-bin.tar.gz
将解压的文件改名 mv apache-hive-2.3.6-bin /usr/local/hive

在这里插入图片描述第二步:配置hive的环境变量

命令   vim /etc/profile
命令   export  HIVE_HOME=/usr/local/hive
命令   export PATH=$PATH:$HIVE_HOME/bin
配置完环境变量后使用命令让它生效
命令   source /etc/profile

在这里插入图片描述
![在这里插入图片描述](https://img-blog.csdnimg.cn/在这里插入图片描述
在这里插入图片描述第三步检验环境变量是否生效有版本显示即生效:

命令 hive --version

在这里插入图片描述第五步:在hive的配置文件的目录上将xxxxxxxxxxx改 为hive-site.xml
在这里插入图片描述

命令: cp hive-default.xml.template hive-site.xml

在这里插入图片描述在这里插入图片描述第六步:创建在hive的hive-site.xml文件中对应的hdfs目录并赋予相应的权限但是首先我们要先开启hadoop集群或是伪分布服务

命令 start-all.sh 开启hadoop的服务

在这里插入图片描述

创建目录并赋予相应的权限

命令        hadoop fs -mkdir -p /user/hive/warehouse
命令        hadoop fs -mkdir -p /tmp/hive
命令        hadoop fs -chmod -R 777 /user/hive/warehouse
命令        hadoop fs -chmod -R 777 /tmp/hive
命令        hadoop fs -ls /

在这里插入图片描述
第七步查看/usr/local/hive目录下是否有temp文件夹如果没有需要自己创建

命令 cd /usr/local/hive
命令 ls
命令 mkdir temp
命令 ls
赋予它相应的权限 命令chmod -R 777 temp

在这里插入图片描述第八步:修改hive的配置文件 hive-site.xml
在这里插入图片描述

搜索的命令是 :/搜索的东西
如 :/hive.exec.local.scratchdir

自己按照自己的路径来改!

/hive.exec.local.scratchdir
<property>
    <name>hive.exec.local.scratchdir</name>
    <value>/usr/local/hive/temp/root</value>
    <description>Local scratch space for Hive jobs</description>
</property>

:/hive.downloaded.resources.dir
 <property>
    <name>hive.downloaded.resources.dir</name>
    <value>/usr/local/hive/temp/${hive.session.id}_resources</value>
    <description>Temporary local directory for added resources in the remote file system.</description>
</property>

:/hive.server2.logging.operation.log.location
<property>
    <name>hive.server2.logging.operation.log.location</name>
    <value>usr/local/hive/temp/root/operation_logs</value>
    <description>Top level directory where operation logs are stored if logging functionality is enabled</description>
</property>

:/hive.querylog.location
<property>
    <name>hive.querylog.location</name>
    <value>/usr/local/hive/temp/root</value>
    <description>Location of Hive run time structured log file</description>
</property>

:/javax.jdo.option.ConnectionURL
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://192.168.121.110:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8</value>
    <description> 自己的ip地址
      JDBC connect string for a JDBC metastore.
      To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
      For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
</description>

以下是mysql相关配置注意自己安装的mysql版本
# 数据库的驱动类名称
# 新版本8.0版本的驱动为com.mysql.cj.jdbc.Driver
# 旧版本5.x版本的驱动为com.mysql.jdbc.Driver
# 本记录驱动版本为5.1.47

:/javax.jdo.option.ConnectionDriverName
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
</property>

:/javax.jdo.option.ConnectionUserName
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value> 当前用户
    <description>Username to use against metastore database</description>
</property>

:/javax.jdo.option.ConnectionPassword
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value> # mysql密码
</property>

:/hive.metastore.schema.verification

<property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value> 一定要改为false
    <description>
      Enforce metastore schema version consistency.
      True: Verify that version information stored in is compatible with one from Hive jars.  Also disable automatic
            schema migration attempt. Users are required to manually migrate schema after Hive upgrade which ensures
            proper metastore schema migration. (Default)
      False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.
    </description>
  </property>
  <property>
    <name>hive.metastore.schema.verification.record.version</name>
    <value>false</value> 一定要改为false
    <description>
      When true the current MS version is recorded in the VERSION table. If this is disabled and verification is
       enabled the MS will be unusable.
    </description>
</property>

第九步:复制并更名hive-log4j2.properties.template为 hive-log4j2.properties文件:
在这里插入图片描述在这里插入图片描述在这里插入图片描述第十步:配置hive-env.sh
首先我们先复制并更名hive-env.sh.template为 hive-env.sh文件

命令 cp hive-env.sh.template  hive-env.sh

配置文件如下:

# Set HADOOP_HOME to point to a specific hadoop install directory
# HADOOP_HOME=${bin}/../../hadoop
  HADOOP_HOOME=/usr/local/hadoop-2.7.1 hdoop安装目录

# Hive Configuration Directory can be controlled by:
# export HIVE_CONF_DIR=
  export HIVE_CONF_DIR=/usr/local/hive/conf hive的配置文件目录
# Folder containing extra libraries required for hive compilation/execution can be controlled by:
# export HIVE_AUX_JARS_PATH=
  export HIVE_AUX_JARS_PATH=/usr/local/hive/lib hive依赖的jar包目录

第十一步:启动mysql创建hive数据库

命令 :  mysql -uroot -p
命令 :  create database hive;

在这里插入图片描述在这里插入图片描述Mysql 的权限设置:

命令 :grant all privileges on *.* to 'root'@'%'identified by '密码'with grant option;

命令:flush privileges;  #刷新权限

在这里插入图片描述上传mysql连接驱动到/usr/local/hive并解压,然后复制到hive目录中的lib中(如下图pwd路径)
复制过去后到/usr/local/hive/lib目录下查询jar包是否在lib目录下
命令 ll mysql-connector-java-5.1.47-bin.jar

命令:
在/usr/local/hive/mysql-connector-java-5.1.47目录下输入
cp mysql-connector-java-5.1.47-bin.jar /usr/local/hive/lib

进入hive的bin目录进行初始化:

命令cd /usr/local/hive/bin
初始化命令 schematool -dbType mysql -initSchema

在这里插入图片描述可能出现的问题:

在这里插入图片描述
启动hive使用命令hive即可

命令 hive

在这里插入图片描述

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hive是基于Hadoop的数据仓库工具,它可以将结构化数据映射为一张数据库表,并提供类似SQL语言的查询功能,使得数据分析师和开发人员可以使用SQL语言来查询和分析大规模的数据。下面是Hive的安装与配置详解: 1. 安装Java Hive需要Java环境来运行,所以需要先安装Java。可以通过以下命令来安装Java: ``` sudo apt-get update sudo apt-get install default-jdk ``` 2. 安装Hadoop Hive是基于Hadoop的,所以需要先安装Hadoop。可以参考Hadoop的安装与配置教程。 3. 下载Hive 可以从Hive的官方网站下载最新的版本,也可以从Apache的镜像站点下载。下载完成后,解压缩到指定目录,比如/opt/hive。 4. 配置Hive 配置文件位于Hive的conf目录下,修改hive-env.sh文件,设置JAVA_HOME和HADOOP_HOME变量的值,比如: ``` export JAVA_HOME=/usr/lib/jvm/default-java export HADOOP_HOME=/opt/hadoop ``` 另外,还需要修改hive-site.xml文件,将以下属性设置为对应的值: ``` <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:/opt/hive/metastore_db;create=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>org.apache.derby.jdbc.EmbeddedDriver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>hive</value> <description>password to use against metastore database</description> </property> ``` 5. 启动Hive 启动Hive之前,需要先启动Hadoop。启动Hadoop后,可以通过以下命令启动Hive: ``` cd /opt/hive/bin ./hive ``` 启动成功后,可以在Hive的Shell中输入SQL语句,比如: ``` hive> show tables; ``` 以上就是Hive的安装与配置详解

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值