Linux系统下虚拟机中安装(搭建)hive的详细教程

前面,我们已经在虚拟机中安装搭建了mysql,接下来我们将在虚拟机中安装hive。Linux系统下虚拟机中安装mysql的详细教程-CSDN博客

一、安装hive压缩包

1、启动虚拟机

①打开VMware、MobaXterm,启动虚拟机集群;

②上传hive的tar压缩包至linux系统下目录(仍然为单节点安装,同样在第一台虚拟机上安装);

 

2、安装hive

①进入hive压缩包所在目录:

 cd /opt/install_packages/

②解压到指定目录:

tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/softs/

 ③修改压缩包名称:

 →进入指定目录:   cd /opt/softs/

 →重命名:  mv apache-hive-3.1.2-bin/ hive3.1.2

3、配置环境变量

① 进入目录:   cd hive3.1.2/

②编辑配置文件:

→打开文件:  vim /etc/profile

→点击i键进入编辑模式,在文件末尾添加如下代码:

#HIVE_HOME
export HIVE_HOME=/opt/softs/hive3.1.2
export PATH=$PATH:$HIVE_HOME/bin

→点击esc键,输入 :wq! 后退出文件;  

→source一下,使修改生效:  source /etc/profile
→打印一下,确认配置正确:  echo $HIVE_HOME

 

二、解决jar包问题

1、上传mysql-connector驱动jar包

①上传jar包至/lib目录下,如图所示:

2、解决日志jar包冲突

 ①进入lib目录:  cd lib/  

 ②改名解决jar包引起的日志冲突,效果如图:

mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak

 

3、解决 guawa jar包版本太高的问题:

 ①给低版本jar包重命名:

 →右键当前窗口,点击Dumplicate tab选项,复制出一个新的bigdata112窗口;

 →在新窗口中,进入目录:  

cd /opt/softs/hadoop3.1.3/share/hadoop/common/lib/

 →输入 pwd ,复制保存好当前路径备用:  /opt/softs/hadoop3.1.3/share/hadoop/common/lib

 转到最初的bigdata112窗口:

 →重命名guawa包,报错如图所示:   

mv guava-19.0.jar guava-19.0.jar.bak

 

 →手动输入命令后,成功重命名,输入  ll  查看:

②转到新建的bigdata112窗口: 

→复制高版本的guava包到指定目录下:  cp guava-27.0-jre.jar /opt/softs/hive3.1.2/lib/

→可回到原本窗口,输入 ll 进行查看是否复制成功。

三、修改hive的配置文件

1、修改hive-site.xml文件

 ①下载配置文件压缩包,解压之后双击打开hive-site.xml文件,进行如下修改:

 

 

 

 ②回到原本窗口,上传文件至conf目录下。

2、修改hadoop的core-site.xml配置文件

①先打开hive的core-site.xml文件,复制文件内容:

<!-- 安装hive时 在hadoop中core-site.xml中添加如下配置 -->
	<!-- 从任何主机登录的root用户可以伪装成一个属于任何group的用户 -->
	<property>
		<name>hadoop.proxyuser.root.hosts</name>
		<value>*</value>
	</property>
	<property>
		<name>hadoop.proxyuser.root.groups</name>
		<value>*</value>
	</property>

②进入指定目录:  

cd /opt/softs/hadoop3.1.3/etc/hadoop/

③进入core-site.xml文件:  vim core-site.xml

④点击i进入编辑模式,在</configuration>标签前

⑤按esc键,输入:wq!后退出文件;

⑥传递该文件至bigdata113、114,成功如图所示:

scp core-site.xml root@bigdata113:/opt/softs/hadoop3.1.3/etc/hadoop/
scp core-site.xml root@bigdata114:/opt/softs/hadoop3.1.3/etc/hadoop/

 ⑦在bigdata113、114输入命令检查,如图所示:  

cat /opt/softs/hadoop3.1.3/etc/hadoop/core-site.xml

3、启动hdfs 

①进入指定目录:  cd /opt/softs/hadoop3.1.3/sbin

②在三台虚拟机上启动hdfs,均需输入 start-dfs.sh

③输入jps,检查节点是否正确启动 

4、hive初始化元数据库

①检查元数据库状态:  systemctl status mysqld

②初始化元数据库,成功如图所示:  

schematool -dbType mysql -initSchema

出现hive数据库和许多表

 ③输入  hive  启动hive,成功如图所示,输入quit或按CTRL+C键退出:

补充:如何查看hive日志? 

① 进入指定目录:cd /tmp/root/

② 查看日志:   tail -500f hive.log   如图所示即为日志,按CTRL+C键即可退出:

Hive的日志

 

 至此,linux上Hive已成功搭建。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值