Hive 是一个数据仓库基础工具在Hadoop中用来处理结构化数据。它架构在Hadoop之上,总归为大数据,并使得查询和分析方便。并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。
MapReduce程序对于Java程序员来说比较容易写,但是对于其他语言使用者来说不太方便。Hive让对Hadoop使用SQL查询(实际上SQL后台转化为了MapReduce)成为可能,那些非Java程序员也可以更方便地使用。
下载hive
hive 是基于 hadoop,所以要先安装 hadoop, hadoop安装部署
下载 hive 前要查看支持的版本
下载地址,北京理工大学开源软件镜:http://mirror.bit.edu.cn/apache/hive/
解压hive:tar -xzvf apache-hive-2.3.6-bin.jar
hive配置
-
配置hive环境变量
打开/etc/profile
export HIVE_HOME=/opt/module/hive-2.3.6-bin PATH=$PATH:$HIVE_HOME/bin
重新编译
profile'
,source /etc/profile
-
hive配置文件
hive的配置文件在hive目录下的conf
中
a.cp hive-env.sh.template hive-env.sh
b.cp hive-log4j2.properties.template hive-log4j2.propertie
c.cp hive-default.xml.template hive-site.xml
修改hive-site.xml
,这里以2.3.6为例:
544行,连接数据库设置,默认 derby<name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:;databaseName=metastore_db;create=true</value> 修改 <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://127.0.0.1:3306/hive?allowPublicKeyPublicKeyRetrieval=true&userSSL=false</value>
1019行,连接驱动设置
<name>javax.jdo.option.ConnectionDriverName</name> <value>org.apache.derby.jdbc.EmbeddedDriver</value> 修改 <name>javax.jdo.option.ConnectionDriverName</name> <!-- 这里使用mysql8.0, 低版本为 com.mysql.jdbc.Driver--> <value>com.mysql.cj.jdbc.Driver</value>
1044行,设置用户名
<name>javax.jdo.option.ConnectionUserName</name> <value>root</value>
529行,设置密码
<name>javax.jdo.option.ConnectionPassword</name> <value>mysql</value>
配置缓存目录,共三个,分别在74、80、3975行,将
${system:java.io.tmpdir}
换成具体目录<name>hive.exec.local.scratchdir</name> <value>${system:java.io.tmpdir}/${system:user.name}</value> <name>hive.downloaded.resources.dir</name> <value>${system:java.io.tmpdir}/${hive.session.id}_resources</value> <name>hive.server2.logging.operation.log.location</name> <value>${system:java.io.tmpdir}/${system:user.name}/operation_logs</value>
-
添加驱动
驱动下载地址:http://mvnrepository.com/artifact/mysql/mysql-connector-java
下载文件:mysql-connector-java-8.0.17.jar,将驱动添加到:hive目录下的/lib
中
启动
- 初始化
schematool -dbType mysql -initSchema
初始化成功SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/module/hive-2.3.6-bin/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/module/hadoop-2.8.5/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] Metastore connection URL: jdbc:mysql://192.168.228.128:3306/onhive? Metastore Connection Driver : com.mysql.cj.jdbc.Driver Metastore connection User: hive Starting metastore schema initialization to 2.3.0 Initialization script hive-schema-2.3.0.mysql.sql Initialization script completed schemaTool completed
- 启动 ,命令行输入
hive
成功启动Logging initialized using configuration in file:/home/zachary/hive-2.3.6/conf/hive-log4j2.properties Async: true Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases. hive>
- 推出
quit;
orexit;
- 遇到问题 1
hive中使用show tables;
,出现报错:
Failed with exception java.io.IOException:java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: ${system:user.name%7D
解决,修改配置文件:
<!-- 修改前 -->
<name>hive.exec.local.scratchdir</name>
<value>/home/lch/software/Hive/apache-hive-2.1.1-bin/tmp/${system:user.name}</value>
<!-- 修改后 -->
<name>hive.exec.local.scratchdir</name>
<value>/home/lch/software/Hive/apache-hive-2.1.1-bin/tmp/${user.name}</value>