Hive安装与配置(Linux)

1.说明

(1)安装Hive之前必须配置好hadoop环境;

(2)安装Hive之前必须配置好JDK;

(3)本文建议安装mysql数据库·;

(4)Hive可以只安装在namenode所在的机器上,如果NameNode有多个,则每个都需要安装,可以不在datanode上安装。

(5)本文hadoop的运行采用伪分布式;

(6)本文中的所有目录(路径)均为本人自定义,访客可根据自己的需求进行更改。

2.版本说明

(1)JDK版本:JDK1.8.0

(2)hadoop版本:Hadoop2.8.3

(3)hive版本:Hive2.3.3

(4)mysql版本:MySql5.7.2

(5)Linux版本:CentOS6.6

3.步骤

(1)下载hive

下载链接为:http://mirrors.hust.edu.cn/apache/hive/

(2)解压hive

将下载好的hive解压到/usr/env/hive/路径下:

tar -zxvf apache-hive-2.1.1-bin.tar.gz -C /usr/env/hive/

(3)配置hive环境变量

进入/etc/profile:

vim /etc/profile

配置hive的安装路径和conf路径:

export HIVE_HOME=/usr/env/hive/hive-2.3.3
export HIVE_CONF_DIR=$HIVE_HOME/conf
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin

使/etc/profile生效:

source /etc/profile

(4)创建数据仓库目录

在HDFS上创建数据仓库目录:

hadoop fs -mkdir -p /home/hive/warehouse

设置目录权限:

hadoop fs -chmod -R 777  /home/hive/warehouse

(5)创建临时目录

在HDFS创建Hive的临时目录:

hadoop fs -mkdir -p /tmp/hive

设置目录权限:

hadoop fs -chmod 755-R /tmp/hive

(6)设置配置文件hive-site.xml

  • 找到hive-site.xml.template文件

    配置文件目录为:

    /usr/env/hive/hive-2.3.3/conf

    将hive-site.xml.template文件改名为hive-site.xml:

    mv hive-site.xml.template hive-site.xml

  • 配置数据仓库的目录hive.metastore.warehouse.dir

  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/home/hive/warehouse</value>
    <description>location of default database for the warehouse</description>
  </property>

 

  • 配置hive.exec.scratchdir

hive用来存储不同阶段的map/reduce的执行计划的目录,同时也存储中间输出结果
  <property>
    <name>hive.exec.scratchdir</name>
    <value>/tmp/hive</value>
    <description>
       HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch            dir: ${hive.exec.scratchdir}/&lt;username&gt; is created, with ${hive.scratch.dir.permission}.
    </description>
 </property>

 

  • 配置hive.exec.local.scratchdir

当hive运行在本地模式时配置

  <property>
    <name>hive.exec.local.scratchdir</name>
    <value>/tmp/hive/root</value>
    <description>Local scratch space for Hive jobs</description>
  </property>

 

  • 配置hive.scratch.dir.permission

允许在根scratch录中创建的用户特定的scratch目录的权限

  <property>
    <name>hive.scratch.dir.permission</name>
    <value>777</value>
    <description>The permission for the user specific scratch directories that get created.</description>
  </property>

 

  • 配置hive.downloaded.resources.dir

远程资源下载的临时目录(创建一个tmp目录,本文将该目录创建在解压目录下)

  <property>
    <name>hive.downloaded.resources.dir</name>
    <value>/usr/env/hive/hive-2.3.3/tmp/${hive.session.id}_resources</value>
    <description>Temporary local directory for added resources in the remote file system.</description>
  </property>

 

  • 将配置文件中${system:user.name}替换为root
  • 配置数据库连接驱动javax.jdo.option.ConnectionDriverName(本文使用的mysql数据库)

  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>

 

  • 配置连接数据库的URL javax.jdo.option.ConnectionURL

  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://XXX.XXX.XXX.XXX:3306/hive?createDatabaseIfNotExist=true</value>
    <description>
      JDBC connect string for a JDBC metastore.
      To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
      For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
    </description>
  </property>

 

  • 配置数据库登录名 javax.jdo.option.ConnectionUserName

  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>Username to use against metastore database</description>
  </property>

 

  • 配置数据库登录密码 .javax.jdo.option.ConnectionPassword

  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>XXXXX</value>
    <description>password to use against metastore database</description>
  </property>

 

  • 将mysql的驱动包保存到hive安装目录下lib文件夹下

本文使用的驱动包为mysql-connector-java-5.1.35.jar,访客可根据自己实际情况而定。

 

(7)配置hive-env.xml

  • 将原始的hive-env.xml.template改名为hive-env.xml

mv hive-env.xml.template hive-env.xml

配置HADOOP_HOME,HIVE_CONF_DIR,HIVE_AUX_JARS_PATH

(8)对mysql数据库进行初始化

schematool -initSchema -dbType mysql

(9)启动hive

进入hive安装目录下的bin目录,运行:

./hive

 

### 回答1: Hive是一个基于Hadoop的数据仓库工具,可以将结构化数据映射到Hadoop的分布式文件系统上,并提供SQL查询功能。以下是Hive安装与配置步骤: 1. 安装Java环境:Hive需要Java环境支持,可以通过以下命令安装: sudo apt-get install openjdk-8-jdk 2. 安装Hadoop:Hive需要Hadoop作为底层存储和计算平台,可以通过以下命令安装: sudo apt-get install hadoop 3. 下载Hive:可以从官网下载Hive的最新版本,也可以通过以下命令下载: wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz 4. 解压Hive:将下载的Hive文件解压到指定目录,例如: tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /usr/local/ 5. 配置Hive环境变量:将Hive的bin目录添加到系统环境变量中,例如: export HIVE_HOME=/usr/local/apache-hive-3.1.2-bin export PATH=$PATH:$HIVE_HOME/bin 6. 配置Hive元数据存储:Hive需要一个元数据存储来管理表和分区等信息,可以选择使用MySQL或Derby等数据库,也可以使用Hive自带的Derby数据库。以下是使用Derby数据库的配置步骤: 6.1 创建Hive元数据存储目录: mkdir /usr/local/hive/metastore_db 6.2 修改Hive配置文件hive-site.xml,添加以下内容: <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:/usr/local/hive/metastore_db;create=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>org.apache.derby.jdbc.EmbeddedDriver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>hive</value> <description>password to use against metastore database</description> </property> 7. 启动Hive:可以通过以下命令启动Hivehive 以上就是Hive安装与配置步骤。 ### 回答2: Hive是基于Hadoop平台的数据仓库,它提供了对海量结构化和非结构化数据的高效处理能力。在安装和配置Hive之前,必须先安装和配置Hadoop。 1. 安装Java Hive依赖于Java环境,因此需要先安装最新的Java版本。在Linux系统中,安装Java可以使用以下命令: $ sudo apt-get install default-jdk 2. 下载和安装Hadoop Hive需要依赖Hadoop来处理数据,因此需要先安装Hadoop。在下载和安装Hadoop之前,需要先设置JAVA_HOME环境变量,可以在.bashrc文件中添加以下命令: export JAVA_HOME=/usr/lib/jvm/default-java 下载和安装Hadoop的步骤如下: 1)下载Hadoop安装包,解压并移动到一个合适的目录。 2)配置Hadoop环境变量,在.bashrc文件中添加以下命令: export HADOOP_HOME=path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin 3)配置Hadoop集群信息,修改conf目录下的core-site.xml和hdfs-site.xml配置文件。 4)启动Hadoop集群,使用以下命令: $ start-dfs.sh $ start-yarn.sh 3. 下载和安装Hive 下载和安装Hive的步骤如下: 1)下载Hive安装包,解压并移动到一个合适的目录。 2)配置Hive环境变量,在.bashrc文件中添加以下命令: export HIVE_HOME=path/to/hive export PATH=$PATH:$HIVE_HOME/bin 3)启动Hive服务,使用以下命令: $ hive --service metastore $ hive --service hiveserver2 4)连接Hive,使用以下命令: $ beeline -u jdbc:hive2://localhost:10000 以上就是Hive的安装和配置过程,需要注意的是,安装和配置Hadoop和Hive时要遵循官方文档的说明,并严格按照步骤操作。 ### 回答3: Apache Hive是一个数据仓库工具,可以将结构化数据存储在Hadoop分布式文件系统上,并通过HiveQL查询语言进行查询和分析。Hive具有类似SQL的语法,因此熟悉SQL的用户能够轻松地了解和使用Hive。下面是Hive的安装和配置过程。 1. 安装Java: Hive运行在Java虚拟机上,因此必须首先安装Java。使用以下命令安装Java: sudo apt-get update sudo apt-get install default-jre sudo apt-get install default-jdk 2. 下载和解压缩Hive: 从Apache Hive的官网上下载最新版本的Hive,然后解压缩: sudo wget http://www.apache.org/dyn/closer.cgi/hive/hive-3.1.1/apache-hive-3.1.1-bin.tar.gz sudo tar xzf apache-hive-3.1.1-bin.tar.gz 3. 配置Hive: 在安装之前先检查Hadoop的配置是否正确。编辑Hive配置文件hive-env.sh,将Hadoop的路径设置成正确的路径: sudo nano apache-hive-3.1.1-bin/conf/hive-env.sh export HADOOP_HOME=/usr/local/hadoop 然后编辑hive-site.xml文件,设置Hive和Hadoop的连接: sudo nano apache-hive-3.1.1-bin/conf/hive-site.xml <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:;databaseName=/usr/local/hive/metastore_db;create=true</value> <description>JDBC connect string for a JDBC metastore.</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>org.apache.derby.jdbc.EmbeddedDriver</value> <description>Driver class name for a JDBC metastore.</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>hive</value> <description>password to use against metastore database</description> </property> 4. 启动Hive: 使用以下命令启动Hive: cd apache-hive-3.1.1-bin bin/hive 5. 测试Hive: 连接到Hive客户机并键入以下命令: hive> show databases; 如果显示了列表,则表示安装和配置已成功完成。 总结: 安装和配置HiveLinux上可能有些复杂,但只要遵循以上步骤,就可以轻松地安装和配置Hive,并开始使用Hive来管理和分析您的数据。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值