Hive安装

前言

hive和mysql一样,只需在一台机子上安装即可,它本身不是分布式软件,却具有分布式功能。另外,由于选择的是远程模式,所以metastore需要单独配置和单独启动。

一、安装Hive

1、解压hive安装包

步骤
1)进入安装包路径,上传hive安装包,我这里是/export/servers

cd /export/servers
rz  #上传安装包,没有请先自行下载

我上传的是apache-hive-3.1.2-bin.tar.gz版本

2)解压

#以具体上传的hive版本号为准
tar zxvf apache-hive-3.1.2-bin.tar.gz 

执行效果
在这里插入图片描述

3)解决Hive与Hadoop之间guava版本差异
原因:有一个名叫guava的包,它在hadoop和hive中都存在,但是两者的版本存在差异,通常保留高版本的guavar包
步骤:

1. 查询hive的guavar版本;
2. 查询hadoop自带的guavar版本;
3. 比较两者高低,卸载其中一中,复制另外一个;

参考指令:

#查询hive的guava版本
cd /export/servers/apache-hive-3.1.2-bin/lib/
ll |grep guava  #我这里的是guava-19.0.jar

#查询hadoop的guava版本
cd /export/servers/hadoop-3.3.0/share/hadoop/common/lib/
ll |grep guava  #我这里是guava-27.0-jre.jar

#卸载
rm -rf /export/servers/apache-hive-3.1.2-bin/guava-19.0.jar
#复制
cp guava-27.0-jre.jar /export/servers/apache-hive-3.1.2-bin/lib/

2、修改配置文件

hive要修改的配置文件主要就两个:hive-env.sh 和 hive-site.xml

1)hive-env.sh

cd /export/servers/apache-hive-3.1.2-bin/conf
#备份文件,以免配置出错导致没有模板参考
cp hive-env.sh.template hive-env.sh
vi hive-env.sh
#追加以下内容到文件中
export HADOOP_HOME=/export/servers/hadoop-3.3.0
export HIVE_CONF_DIR=/export/servers/apache-hive-3.1.2-bin/conf
export HIVE_AUX_JARS_PATH=/export/servers/apache-hive-3.1.2-bin/lib

补充:

  • 第一行是hadoop的安装路径;
  • 第二行是hive安装路径下的conf ;
  • 第三行是hive安装路径下的lib;

2)hive-site.xml
这个文件是没有的,需要新建。

vi hive-site.xml

将以下内容追加到文件即可

<configuration>
<!-- 存储元数据mysql相关配置 -->
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://node1:3306/hive3?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
</property>

<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
</property>

<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>

<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
</property>

<!-- H2S运行绑定host -->
<property>
    <name>hive.server2.thrift.bind.host</name>
    <value>node1</value>
</property>

<!-- 远程模式部署metastore metastore地址 -->
<property>
    <name>hive.metastore.uris</name>
    <value>thrift://node1:9083</value>
</property>

<!-- 关闭元数据存储授权  --> 
<property>
    <name>hive.metastore.event.db.notification.api.auth</name>
    <value>false</value>
</property>
</configuration>

注意:这里涉及到mysql的用户名和密码,如果你的密码发生过修改,记得更新参数的value。我这里javax.jdo.option.ConnectionPassword参数的值是123456

3、上传mysql驱动到hive安装包lib下

cd /export/servers/apache-hive-3.1.2-bin/lib
rz 

我这里是mysql-connector-java-5.1.32.jar

4、初始化元数据

cd /export/servers/apache-hive-3.1.2-bin/
bin/schematool -initSchema -dbType mysql -verbos
#初始化成功会在mysql中创建74张表

执行成功效果
在这里插入图片描述

二、创建hdfs的hive存储目录

这一步是选做,没有的话可以创建,当然系统也会自动创建。建议没有还是创建一下好。

#启动集群
start-all.sh
#查询有无目录
hadoop fs -ls /
#创建(选做)
hadoop fs -mkdir /tmp
hadoop fs -mkdir -p /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
安装Sqoop时,需要配置Hive安装目录。可以按照以下步骤进行操作: 1. 下载Sqoop的压缩包并解压到合适的路径,比如 `/usr/local/sqoop`。可以使用以下命令进行解压: ``` sudo tar -zxvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /usr/local/ ``` 2. 进入Sqoop的安装目录: ``` cd /usr/local/sqoop ``` 3. 创建并配置Sqoop的配置文件: ``` cp conf/sqoop-env-template.sh conf/sqoop-env.sh ``` 4. 编辑配置文件 `sqoop-env.sh`,设置Hive安装目录: ``` export HIVE_HOME=/usr/local/apache-hive-1.2.2-bin ``` 5. 保存并退出配置文件。 完成以上步骤后,Sqoop就可以与Hive进行集成了。请确保Hive已经正确安装,并且Hive安装目录与上述配置文件中的路径一致。 #### 引用[.reference_title] - *1* *3* [安装sqoop](https://blog.csdn.net/weixin_45955039/article/details/123411295)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [大数据可视化——Sqoop与Hive安装详解](https://blog.csdn.net/weixin_58648684/article/details/127666985)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值