安装部署Hive

该部分的安装需要在Hadoop已经成功安装的基础上,并且要求Hadoop已经正常启动。

Hadoop正常启动的验证过程如下:

(1)  使用下面的命令,看可否正常显示HDFS上的目录列表

[lyu@master ~]$ hdfs dfs -ls /

(2)  使用浏览器查看相应界面

http://master:50070

http://master:18088

该页面的结果跟Hadoop安装部分浏览器展示结果一致。

如果满足上面的两个条件,表示Hadoop正常启动。

 

我们将Hive安装在HadoopMaster节点上。所以下面的所有操作都在HadoopMaster节点上进行。

 

下面所有的操作都使用lyu用户,切换lyu用户的命令是:

su - lyu

密码是:lyu

解压并安装Hive

 

使用下面的命令,解压Hive安装包:

[lyu@master ~]$ cd /home/lyu/resources/software/hive

[lyu@master hive]$ mv ~/resources/software/hive/apache-hive-2.1.1-bin.tar.gz ~/

[lyu@master hive]$ cd

[lyu@master ~]$ tar -zxvf ~/apache-hive-2.1.1-bin.tar.gz

[lyu@master ~]$ cd apache-hive-2.1.1-bin

执行一下ls -l命令会看到下面的图片所示内容,这些内容是Hive包含的文件:


安装配置MySQL

注意:安装和启动MySQL服务需要root权限,切换成root用户,命令如下:

[lyu@master ~]$ su root

输入密码:lyu

启动MySQL服务:

[root@master lyu]# systemctl status mysqld

如果看到如下的打印输出,表示启动成功。

以root用户登录mysql(密码:lyu),(注意这里的root是数据库的root用户,不是系统的root用户)。

[root@master lyu]# mysql -uroot -p

然后创建hadoop用户:

mysql>grant all on *.* to hadoop@'%' identified by 'hadoop';

mysql>grant all on *.* to hadoop@'localhost' identified by 'hadoop';

mysql>grant all on *.* to hadoop@'master' identified by 'hadoop';

mysql>flush privileges;

创建数据库:

mysql>create database hive_13;

输入命令退出MySQL

mysql>quit;

配置Hive

进入hive安装目录下的配置目录,然后修改配置文件:

[lyu@master ~]$ cd /home/lyu/apache-hive-2.1.1-bin/conf

然后再该目录下创建一个新文件hive-site.xml,命令如下:

[lyu@master conf]$ gedit ~/apache-hive-2.1.1-bin/conf/hive-site.xml

将下面的内容添加到hive-site.xml文件中:

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

    <property>

        <name>hive.metastore.local</name>

        <value>true</value>

    </property>

    <property>

        <name>javax.jdo.option.ConnectionURL</name>

         <value>jdbc:mysql://master:3306/hive_13?characterEncoding=UTF-8</value>

    </property>

    <property>

        <name>javax.jdo.option.ConnectionDriverName</name>

        <value>com.mysql.jdbc.Driver</value>

    </property>

    <property>

        <name>javax.jdo.option.ConnectionUserName</name>

        <value>hadoop</value>

    </property>

    <property>

        <name>javax.jdo.option.ConnectionPassword</name>

        <value>hadoop</value>

    </property>

</configuration>

将mysql的java connector复制到依赖库中,其中,第3、4、5行是一行代码(要在一行中键入这三行,然后回车执行)

[lyu@master ~]$ cd /home/lyu/resources/software/mysql

[lyu@master mysql]$ tar -zxvf ~/resources/software/mysql/mysql-connector-java-5.1.41.tar.gz

[lyu@master mysql]$ cp ~/resources/software/mysql/mysql-connector-java-5.1.41/mysql-connector-java-5.1.41.jar ~/apache-hive-2.1.1-bin/lib/

使用下面的命令打开配置:

[lyu@master ~]$ vi /home/lyu/.bash_profile

将下面两行配置环境变量:

export HIVE_HOME=/home/lyu/apache-hive-2.1.1-bin

export PATH=$PATH:$HIVE_HOME/bin

初始化metadata

进入hive安装主目录,初始化hive的metadata:

[lyu@master apache-hive-2.1.1-bin]$ ./bin/schematool --initSchema --dbType mysql

启动并验证Hive安装

进入hive安装主目录,启动hive客户端:

[lyu@master apache-hive-2.1.1-bin]$ ./bin/hive

出现下面的页面表示hive部署成功:

©️2020 CSDN 皮肤主题: 创作都市 设计师:CSDN官方博客 返回首页