Zookeeper+Hadoop+Hbase+Hive+Kylin+Nginx集群搭建九(Hive拓展客户端篇)

Zookeeper+Hadoop+Hbase+Hive+Kylin+Nginx集群搭建九(Hive拓展客户端篇)

全文请看:https://blog.csdn.net/tktttt/article/details/108578804
大数据集群搭建安装包:https://download.csdn.net/download/tktttt/12879318
大数据集群搭建安装包2:https://download.csdn.net/download/tktttt/12879355

十一、Hive拓展客户端

1.准备工作

前文安装的hive只安装在了主节点node上,也就是单机模式,且服务端和客户端未分离,其实最好分离,但既然已经好了,本文也就不分离了,选择多拓展两台hive客户端节点
在前文安装的基础上将hive的安装及配置文件复制发送到另外两台节点,即node1和node2上:

#在 node1和 node2上都执行,创建hive安装的文件夹
cd /usr/local
mkdir hive
#在 node 上执行分别执行
scp -r /usr/local/hive/apache-hive-2.3.7-bin/ 192.168.88.130:/usr/local/hive/
scp -r /usr/local/hive/apache-hive-2.3.7-bin/ 192.168.88.131:/usr/local/hive/

然后在node1和node2节点上都加入hive的环境变量:

#打开
vi /etc/profile
#加入以下内容
export PATH=$PATH:$HIVE_HOME/bin
export HIVE_HOME=/usr/local/hive/apache-hive-2.3.7-bin
#保存退出
#使之生效
source /etc/profile

2.配置变量

进入node1中hive的安装路径:

cd /usr/local/hive/apache-hive-2.3.7-bin/conf/
#打开配置文件hive-site.xml
vi hive-site.xml

删除以下内容:

  <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://192.168.88.129:3306/hivedb?createDatabaseIfNotExist=true&amp;useSSL=false</value>
  </property>
  <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
   </property>
   <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
   </property>

修改或加入以下内容:

<property>
      <name>hive.metastore.local</name>
      <value>false</value>
  </property>
  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://192.168.88.129:9083</value>
    <description>Thrift URI for the remote metastore. Used by metastore client to connect to remote metastore.</description>
  </property>

在node2上同上操作配置一遍

3.验证

在node上启动服务:
按上文启动顺序:

1、启动zookeeper
./zkServer.sh start
2、启动journalnode(不启动也可)
hadoop-daemon.sh start journalnode
3、启动HDFS
./start-dfs.sh
4、启动YARN集群
./start-yarn.sh
5、启动HBase集群
./start-hbase.sh
6、启动 metastore
nohup hive --service metastore &
7、启动 hiverserver2
nohup hive --service hiveserver2 &
8、启动Yarn history server
mr-jobhistory-daemon.sh start historyserver
9、启动spark history server【可选,本文未装spark】
sbin/start-history-server.sh 
10、启动kylin
./kylin.sh start

只要启动了1-6步即可,即hive --service metastore启动即可,若是原先就启动着就关掉再重新启动,
之后在node1和node2节点上输入hive命令并回车,即可进入hive操作行

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值