基于CentOS7的Hadoop3.2.0+Zookeeper3.5.9+Hive3.1.2+Spark2.3.0完全分布式HA的安装部署(3)Hive3.1.2安装部署

目录

准备工作

部署规划

解压安装

分发

环境变量

配置文件

metastore服务端

客户端

HDFS

Mysql驱动

验证

服务端启动服务

客户端启动服务

参考文章


准备工作

  1. hadoop-3.2.0
  2. mysql

部署规划

序号服务器IP服务器主机名安装软件启动进程
1192.168.21.131masterhadoop、zookeeper、hive-metastore、spark、hueQuorumPeerMain、ResourceManager、JournalNode、DFSZKFailoverController、NameNode、Master
2192.168.21.132slave1hadoop、zookeeper、sparkQuorumPeerMain、JournalNode、DataNode、NodeManager、Worker
3192.168.21.133slave2hadoop、zookeeper、sparkQuorumPeerMain、JournalNode、DataNode、NodeManager、Worker
4192.168.21.134slave3hadoop、sparkDataNode、NodeManager、Worker
5192.168.21.135master2hadoop、hive-Client、sparkResourceManager、DFSZKFailoverController、NameNode、Worker

解压安装

tar -zxvf apache-hive-3.1.2-bin.tar.gz
mv apache-hive-3.1.2-bin ../hive-3.1.2

分发

scp -r /opt/hive-3.1.2/ hadoop@master2:/opt/

环境变量

在master、master2上配置

vim ~/.bashrc #最好在/etc/profile中也做一遍
#最下面添加
#hive
export HIVE_HOME=/opt/hive-3.1.2
export PATH=$PATH:$HIVE_HOME/bin
#保存后编译
source ~/.bashrc

配置文件

metastore服务端

在master上配置

hive-site.xml

cd hive-3.1.2/conf/
cp hive-default.xml.template hive-site.xml
vim hive-site.xml
<configuration>
	<property><!--数据库连接地址,使用MySQL存储元数据信息-->
    		<name>javax.jdo.option.ConnectionURL</name>
    		<value>jdbc:mysql://192.168.21.1:3306/hive?useSSL=false</value>
	</property>
	<property><!--数据库驱动-->
		<name>javax.jdo.option.ConnectionDriverName</name>
		<value>com.mysql.cj.jdbc.Driver</value>
	</property>
	<property><!--数据库用户名-->
		<name>javax.jdo.option.ConnectionUserName</name>
		<value>hadoop</value>
		<description>Username to use against metastore database</description>
	</property>
	<property><!--密码-->
		<name>javax.jdo.option.ConnectionPassword</name>
		<value>hadoop</value>
		<description>password to use against metastore database</description>
	</property>	
	<property><!--本地表的默认位置-->
		<name>hive.metastore.warehouse.dir</name>
		<value>/opt/hive-3.1.2/warehouse</value>
	</property>
    <property>
        <name>hive.exec.local.scratchdir</name>
        <value>/opt/hive-3.1.2/tmp</value>
        <description>Local scratch space for Hive jobs</description>
    </property>
    <property>
        <name>hive.downloaded.resources.dir</name>
        <value>/opt/hive-3.1.2/tmp</value>
        <description>Temporary local directory for added resources in the remote file system.</description>
    </property>
    <property>
        <name>hive.querylog.location</name>
        <value>/opt/hive-3.1.2/tmp</value>
        <description>Location of Hive run time structured log file</description>                
    </property>
</configuration>

hive-env.sh

cd hive-3.1.2/conf/
cp hive-env.sh.template hive-env.sh
vim hive-env.sh
# Set HADOOP_HOME to point to a specific hadoop install directory
 export HADOOP_HOME=/opt/hadoop-3.2.0/
# Hive Configuration Directory can be controlled by:
 export HIVE_CONF_DIR=/opt/hive-3.1.2/conf
# Folder containing extra libraries required for hive compilation/execution can be controlled by:
 export HIVE_AUX_JARS_PATH=/opt/hive-3.1.2/lib

客户端

在master2上配置

hive-site.xml

</configuration>
	<property><!--这个一定要有-->
		<name>hive.metastore.uris</name><!--Hive连接到该URI请求远程元存储的元数据-->
		<value>thrift://master:9083</value>
	</property>
    <property>
        <name>hive.exec.local.scratchdir</name>
        <value>/opt/hive-3.1.2/tmp</value>
        <description>Local scratch space for Hive jobs</description>
    </property>
    <property>
        <name>hive.downloaded.resources.dir</name>
        <value>/opt/hive-3.1.2/tmp</value>
        <description>Temporary local directory for added resources in the remote file system.</description>
    </property>
    <property>
        <name>hive.querylog.location</name>
        <value>/opt/hive-3.1.2/tmp</value>
        <description>Location of Hive run time structured log file</description>                
    </property>
</configuration>

hive-env文件与服务端相同即可(主要是路径添加)

HDFS

切换到hadoop,建立以下文件目录(需要指定的话):

hadoop fs -mkdir -p /usr/hive/tmp
hadoop fs -mkdir -p /usr/hive/logs
hadoop fs -mkdir -p /usr/hive/warehouse
hdfs dfs -chmod -R 777 /usr/hive/tmp
hdfs dfs -chmod -R 777 /usr/hive/logs
hdfs dfs -chmod -R 777 /usr/hive/warehouse

Mysql驱动

可以去官网下载 https://dev.mysql.com/downloads/connector/j/
选择对应的系统版本,再解压安装后拷贝到/opt/hive-3.1.2/lib

验证

服务端启动服务

schematool -initSchema -dbType mysql  #初始化
hive --service metastore -p 9083 & #启动服务

客户端启动服务

hive
hive>show databases;

参考文章

版权声明:本文为CSDN博主「三石君1991」的原创文章,hive on spark(yarn)安装部署
原文链接:https://blog.csdn.net/weixin_43860247/article/details/89184081

版权声明:本文为CSDN博主「三石君1991」的原创文章,Hive安装部署
原文链接:https://blog.csdn.net/weixin_43860247/article/details/89087941

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值