Hive 2.1.0集群安装
1.配置服务器
1个主节点:master(192.168.20.191),2个(从)子节点,
node1(192.168.20.192),
node2(192.168.20.193)
2.将jdbc的jar包放到$HIVE_HOME下
cd /usr/tools/hive/lib
把mysql-connector-java-5.1.17.jar放到上面的lib目录下
3.安装hive集群 注:hive只在一个节点上安装即可!!!
在master主机上安装hive
安装位置自定,例如安装在/usr/tools目录下面
下载hive包,放在/usr/tools目录下,解压hive
tar -xzvf apache-hive-2.1.0-bin.tar.gz
改名:mv apache-hive-2.1.0-bin.tar.gz hive
配置环境变量:
vim /etc/profile
在末尾添加:
## HIVE
export HIVE_HOME=/usr/tools/hive
export HIVE_CONF_DIR=$HIVE_HOME/conf
export CLASSPATH=$CLASSPATH:$HIVE_HOME/lib
export PATH=$PATH:$HIVE_HOME/bin
保存后使新编辑的profile生效:source /etc/profile
4.配置hive
cd /usr/tools/hive/conf
cp hive-default.xml.template hive-site.xml
vim hive-site.xml
备注:文件单独存放!!!
5.初始化hive操作
切到bin目录下执行:
cd /usr/tools/hive/bin/
./schematool -dbType mysql –initSchema
6.启动Metastore服务
启动Metastore服务
执行hive前,需要先启动metastore服务,否则会报错:
./hive --service metastore
然后新开一个终端窗口再启动hive:
7.测试
show databases;
create database starbucks;
use starbucks;
create table book (id bigint, name string) row format delimited fields terminated by '\t';
show tables;
select * from book;
select count(*) from book;
insert into book(id,name) values(1,'liushiting');
hdfs dfs -lsr /
hdfs dfs -cat /user/hive/warehouse/starbucks.db/book/000000_0
http://192.168.20.191:50070/explorer.html#/user/hive/warehouse/starbucks.db/book
查看hive版本: hive --version
8.通过远程jdbc方式连接到hive数据仓库
1.启动hiveserver2服务器,监听端口10000
$> hive --service hiveserver2 &
2.通过beeline命令行连接到hiveserver2
$>beeline
//连接到hive数据库
$beeline>!connect jdbc:hive2://192.168.20.191:10000/starbucks
//显示所有数据库
$beeline>show databases;