hive安装

本文详细介绍了如何在Hadoop3.2.2环境中安装和配置Hive2.3.9,包括环境变量设置、文件夹结构调整、配置文件修改以及与MySQL的连接等步骤。
摘要由CSDN通过智能技术生成

安装前需知

hive的版本需与hadoop版本相匹配!!!!!

我这里是hadoop3.2.2与hive2.3.9

hive官网安装包地址

hive官网安装包下载地址:Index of /dist/hive

hive安装

1.环境变量

      1.hive环境变量配置:(不可以有空格)

      2.path中增加:%HIVE_HOME%\bin

2.在hive目录下增加一个文件夹:data

  然后在data下增加几个文件夹:

operation_logs_dir

querylog_dir

resources_dir

scratch_dir

3.将低版本中的bin文件夹下的文件复制到安装版本bin下:

可以用hive2.0.0版本的,文件地址见上面

4.更改conf下的文件:

hive-log4j.properties.template  ----->  hive-log4j2.properties
hive-exec-log4j.properties.template -----> hive-exec-log4j2.properties
hive-env.sh.template  ----->  hive-env.sh
hive-default.xml.template  -----> hive-site.xml

5.更改hive-env.sh里面的内容:

里面的路径更改为自己的

HADOOP_HOME=D:\hadoop-3.2.2

# Hive Configuration Directory can be controlled by:
 export HIVE_CONF_DIR=D:\hive-2.3.9\conf

# Folder containing extra libraries required for hive compilation/execution can be controlled by:
 export HIVE_AUX_JARS_PATH=D:\hive-2.3.9\lib

6.更改hive-site.xml里面的内容:

注意:将里面的路径改成自己的,还有在<数据库连接地址配置>中先查看自己数据库的端口号是多少,在<数据库访问密码>中设置自己的密码

<!-- scratchdir 本地目录 -->
	<property>
		<name>hive.exec.local.scratchdir</name>
		<value>D:/hive-2.3.9/data/scratch_dir</value>
		<description>Local scratch space for Hive jobs</description>
	</property>
 
<!-- resources_dir 本地目录 -->
	<property>
		<name>hive.downloaded.resources.dir</name>
		<value>D:/hive-2.3.9/data/resources_dir/${hive.session.id}_resources</value>
		<description>Temporary local directory for added resources in the remote file system.</description>
	</property>
 
<!-- querylog 本地目录 -->
	<property>
		<name>hive.querylog.location</name>
		<value>D:/hive-2.3.9/data/querylog_dir</value>
		<description>Location of Hive run time structured log file</description>
	</property>
 
<!-- operation_logs 本地目录 -->
	<property>
		<name>hive.server2.logging.operation.log.location</name>
		<value>D:/hive-2.3.9/data/operation_logs_dir</value>
		<description>Top level directory where operation logs are stored if logging functionality is enabled</description>
	</property>
 
<!-- 数据库连接地址配置 -->
	<property>
		<name>javax.jdo.option.ConnectionURL</name>
		<value>jdbc:mysql://localhost:3306/hive?serverTimezone=UTC&amp;useSSL=false&amp;allowPublicKeyRetrieval=true</value>
		<description>
		JDBC connect string for a JDBC metastore.
		</description>
	</property>
 
<!-- 数据库驱动配置 -->
	<property>
		<name>javax.jdo.option.ConnectionDriverName</name>
		<value>com.mysql.cj.jdbc.Driver</value>
		<description>Driver class name for a JDBC metastore</description>
	</property>
 
<!-- 数据库用户名 -->
	<property>
		<name>javax.jdo.option.ConnectionUserName</name>
		<value>root</value>
		<description>Username to use against metastore database</description>
	</property>
 
<!-- 数据库访问密码 -->
	<property>
		<name>javax.jdo.option.ConnectionPassword</name>
		<value>自己设置一个密码</value>
		<description>password to use against metastore database</description>
	</property>

7.mysql-connector-java-5.1.47-bin.jar添加到  lib 文件夹中

mysql-connector-java-5.1.47-bin.jar的下载地址在:

https://downloads.mysql.com/archives/get/p/3/file/mysql-connector-java-5.1.47.zip

8.在Navicat premium中添加hive数据库:

9.打开hadoop:start-all

 添加  /tmp  和  /user/hive/warehouse 并且修改权限
 

hadoop fs -mkdir /tmp

hadoop fs -mkdir -p /user/hive/warehouse

hadoop fs -chmod g+w /tmp

hadoop fs -chmod g+w /user/hive/warehouse

10.格式化hive元数据库:

在bin下打开命令提示符,输入以下命令

hive --service schematool -dbType mysql -initSchema

出现:则成功。

且可发现在Navicat premium的hive数据库中出现了内容

11.启动hive:

hive --service metastore 

hive

  • 21
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值