Ubuntu14上搭建HIVE-1.1.0-CDH5.9.3

1 安装Hadoop

Hive是建立在Hadoop上的一个数仓工具,说简单点就是真实数据存储在HDFS上。因此需要先安装Hadoop,详见博文hadoop-2.6.0-cdh完全分布式集群的搭建

2 安装MySQL

Hive是将结构化的数据文件映射为一张表,映射关系需要存放在数据库上。博主选用MySQL数据库存储HIVE元数据信息。MySQL的按装详见在Ubuntu14中安装MySQL数据库并使用SQLyog进行连接

3 安装HIVE

HIVE的存储使用HDFS,计算引擎可以是MR或SPARK,即HIVE本身不存储数据,也不做任何计算。因此不需要像其他大数据框架一样需要集群安装,只需在装有HADOOP的机器上任意一台都可以安装HIVE就可以。

#解压

hadoop@master:~$ tar -zxvf hive-1.1.0-cdh5.9.3.tar.gz  -C app/
hadoop@master:~$mv app/ hive-1.1.0-cdh5.9.3 hive

#修改配置文件hive-env.sh

hadoop@master:~$ cd app/hive/conf/
hadoop@master:~/app/hive/conf$ mv hive-env.sh.template hive-env.sh
hadoop@master:~/app/hive/conf$vim hive-env.sh
修改以下两行:
HADOOP_HOME=/home/hadoop/app/Hadoop  #hadoop安装目录
export HIVE_CONF_DIR=/home/hadoop/app/hive/conf #hive配置文件的地址

#修改配置文件hive-site.xml

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <!-- Mysql数据库的地址-->
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://192.168.0.150:3306/metastore?createDatabaseIfNotExist=true</value>
        <description>JDBC connect string for a JDBC metastore</description>
    </property>
    
    <!-- Mysql数据库的驱动-->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <description>Driver class name for a JDBC metastore</description>
    </property>
    
    <!-- Mysql数据库的账号-->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
        <description>username to use against metastore database</description>
   </property>
   
    <!-- Mysql数据库的密码-->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
        <description>password to use against metastore database</description>
   </property>
   
   <!—Hive查询结果显示列名-->
   <property>
     <name>hive.cli.print.header</name>
     <value>true</value>        
   </property>
   
   <!—Hive查询结果显示表名-->
   <property>
      <name>hive.cli.print.current.db</name>
      <value>true</value>
   </property>
</configuration>

#修改日志文件

hadoop@master:~/app/hive/conf$mkdir /home/hadoop/app/hive/logs
hadoop@master:~/app/hive/conf$mv hive-log4j.properties.template hive-log4j.properties
hadoop@master:~/app/hive/conf$vim hive-log4j.properties
修改日志地址:
hive.log.dir=/home/hadoop/app/hive/logs

#添加mysql的驱动包
#将mysql的jar包放到hive安装包的lib下面

hadoop@master:~$ tar -zxvf mysql-connector-java-5.1.27.tar.gz
hadoop@master:~$ mv mysql-connector-java-5.1.27/mysql-connector-java-5.1.27-bin.jar  app/hive/lib/

4 启动Hive

hadoop@master:~
//开启 metastore
/app/hive$ bin/hive --service metastore &
//开启 hiveserver2
/app/hive$ hive --service hiveserver2 &
hadoop@master:~/app/hive$ ./bin/hive
hive> show databases;
OK
default
Time taken: 2.077 seconds, Fetched: 1 row(s)

走到这里说明安装成功了!

5 使用YARN进行查看

使用HIVE插入一条数据

hive> insert into student(id, name) values('2', 'father');

在浏览器访问YARN的界面http://{$hadoop-master}:8088/cluster, $hadoop-master指HADOOP集群master节点所在的地址。

yARN的管理界面

6 安装过程遇到的bug

SemanticException org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeExcepti

原因:数据库问题
解决方法:进入HIVE的日志文件,可以查看具体是数据库哪里出了问题。

 hadoop@master:~/app/hive/logs$ vim hive.log

7 参考文献

[1] Tom White, Hadoop权威指南 第4版. 2017, 清华大学出版社.

阅读终点,创作起航,您可以撰写心得或摘录文章要点写篇博文。去创作
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: apache-hive-1.1.0-bin.tar.gz是一个Apache Hive的二进制发布版本。Apache Hive是一个建立在Apache Hadoop之上的数据仓库基础架构,用于提供数据汇总、查询和分析的功能。 这个二进制发布版本是经过编译的,可以直接在已经安装了Hadoop环境的机器上使用。用户可以通过下载并解压这个tar.gz文件,获得Hive的可执行文件、配置文件和其他必要的库文件。 Apache Hive提供了一种类似于传统关系型数据库的查询语言,称为HiveQL,使得用户可以使用类似SQL的语法来查询和分析存储在Hadoop集群中的数据。HiveQL编译器将用户的查询转换为MapReduce任务,并在Hadoop上执行这些任务。 除了查询语言之外,Hive还提供了数据的存储与管理机制,包括表的创建、数据的导入导出以及分区和桶的管理等功能。这使得用户可以更方便地将结构化数据映射到Hadoop的分布式文件系统中。 Apache Hive主要用于处理大规模的结构化数据,如日志文件、社交网络数据和传感器数据等。它适用于那些需要对海量数据进行汇总、分析和挖掘的应用场景。 通过使用Apache Hive,用户可以充分利用Hadoop的强大分布式计算能力和存储能力,以更高效的方式进行数据处理和分析。它使得普通的开发人员和分析师可以利用Hadoop集群进行复杂的数据操作,而不需要深入了解Hadoop的底层技术细节。 ### 回答2: Apache Hive是建立在Apache Hadoop之上的一个数据仓库基础设施,它提供了一种将结构化数据存储在Hadoop上并进行查询和分析的方式。 "apache-hive-1.1.0-bin.tar.gz"是Apache Hive 1.1.0版本的二进制发布压缩文件。这个文件包含了Hive的二进制可执行文件和相关的库,可以用于安装和运行Hive。 要使用这个文件,首先需要将其下载到本地计算机中。然后,可以使用合适的解压缩工具(如WinRAR或tar命令)对压缩文件进行解压缩。 解压缩后,会得到一个包含Hive二进制文件、配置文件和其他必要文件的目录。通过修改配置文件,可以对Hive进行自定义设置,例如指定Hadoop集群的位置和其他相关参数。 安装完成后,可以使用Hive提供的命令行界面或其他Hive客户端工具连接到Hadoop集群并执行SQL查询。Hive支持类似于传统关系型数据库的SQL查询语言,称为HiveQL。 使用Hive,用户可以通过编写HiveQL查询来处理和分析大规模的结构化数据。Hive提供了对数据的抽象和查询优化,以便将查询转化为适合在Hadoop集群上执行的任务。 简而言之,"apache-hive-1.1.0-bin.tar.gz"是Apache Hive的二进制发布压缩文件,通过安装和配置后,可以使用Hive来进行大规模结构化数据的存储、查询和分析。 ### 回答3: apache-hive-1.1.0-bin.tar.gz 是一个开源的数据仓库工具,用于在Hadoop上进行数据汇总、查询和分析。它是基于Apache Hadoop的一个数据仓库基础设施,为用户提供了一个类SQL的查询语言(HiveQL)来对存储在Hadoop集群中的数据进行查询和分析。 该软件包是以.tar.gz的压缩格式提供的,需要使用相关的解压缩软件将其解压缩。解压缩后会得到一个文件夹,里面包含了Hive的所有相关文件和目录。 Hive提供了一个用于管理和查询大规模分布式数据的平台,并支持海量数据的处理和分析。它基于Hadoop的HDFS存储和MapReduce计算模型,将用户提交的HiveQL语句转换为对Hadoop集群的MapReduce任务。 Hive的主要特点包括: 1. 可扩展性:Hive能够处理大规模的数据,并且能够方便地水平扩展集群规模,以满足不断增长的数据需求。 2. 易于使用:Hive提供了类似SQL的查询语言,使得用户可以更加方便地进行数据查询和分析,而无需编写复杂的MapReduce程序。 3. 多样的数据源:Hive可以处理多种不同的数据源,包括Hadoop HDFS、HBase、Amazon S3等,使得用户可以从不同的数据源中进行数据汇总和分析。 4. 扩展性:Hive提供了丰富的扩展接口,用户可以根据自己的需求编写自定义的函数、聚合操作和存储格式等。 5. 容错性:Hive在处理大规模数据时具备良好的容错性,能够自动处理节点故障或数据丢失等异常情况。 总之,apache-hive-1.1.0-bin.tar.gz是一个功能强大的数据仓库工具,为用户提供了一种简单、灵活和高效的方式来处理和分析大规模数据。它是基于Apache Hadoop的开源项目,广泛应用于各个行业的大数据处理和分析场景中。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

JayLaiSCUT

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值