安装环境:CentOS-7、JDK1.8、Hadoop2.6
Hive版本:hive-1.1.0-cdh5.14.2
资源路径:百度网盘 请输入提取码
提取码:zzzz
1、将软件安装包移动至 /opt 目录下,这里我用的是Xftp软件
2、创建目录 /opt/soft/hive110,命令:
mkdir -p /opt/soft/hive110
3、解压缩hive的tar包,命令:
tar -zxvf /opt/hive-1.1.0-cdh5.14.2.tar.gz -C /opt/soft/hive110 --strip-components 1
解压后查看解压目录
4、移动至 conf 目录,创建文件 hive-site.xml并打开,命令:
touch hive-site.xml
vim hive-site.xml
编辑文件内容如下:
<?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <!-- hadoop中hdfs的存储路径 --> <property> <name>hive.metastore.warehouse.dir</name> <value>/hive110/warehouse</value> </property> <!-- 元数据库(mysql)是否在本地? --> <property> <name>hive.metastore.local</name> <value>false</value> </property> <!-- 如果是远程mysql数据库的话需要在这里写入远程的IP或hosts --> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://192.168.1.101:3306/hive?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>root</value> </property> <!-- 下面配置是是第三方用户登录时不需要密码验证 --> <property> <name>hive.server2.authentication</name> <value>NONE</value> </property> <property> <name>hive.server2.thrift.client.user</name> <value>root</value> </property> <property> <name>hive.server2.thrift.client.password</name> <value>root</value> </property> <!-- 设置查询结果是否显示数据表头 --> <property> <name>hive.cli.print.header</name> <value>false</value> </property> <!-- 设置是否显示当前使用的数据库 --> <property> <name>hive.cli.print.current.db</name> <value>true</value> </property> </configuration>
5、 创建 /opt/soft/hive110/conf/hive-log4j.properties文件
cp /opt/soft/hive110/conf/hive-log4j.properties.template /opt/soft/hive110/conf/hive-log4j.properties
vim /opt/soft/hive110/conf/hive-log4j.properties
点击这里可以修改hive日志的存储路径,这里我把他存到 /opt/soft/hive110/logs 目录下
6、编辑 /etc/profile 文件,命令:vim /etc/profile
在文件尾部加入如下内容:
#hive environment export HIVE_HOME=/opt/soft/hive110 export PATH=$PATH:$HIVE_HOME/bin
7、重新编译 /etc/profile 文件,命令:source /etc/profile
8、将java连接数据库的jar包,拷贝一份到 /opt/soft/hive110/lib 目录下
9、启动hadoop,命令:
start-dfs.sh
start-yarn.sh
再输入命令:jps 查看hadoop启动的进程
10、初始化hive,命令:
schematool -dbType mysql -initSchema
最后出现 completed 表示初始化成功
11、启动hive服务端,命令:hive --service hiveserver2
12、重开个窗口连接linux,在这个窗口启动hive客户端,命令:hive
13、输入几条sql语句进行简单测试,语句:
show databases;
create database mydemo;
use mydemo;
create table userinfos(userid int,username string);
insert into userinfos values(1,'zhangsan'),(2,'lisi');
select * from userinfos;
如要退出,输入 quit; 退出hive客户端
14、Beeline用法(界面好看点,扩展知识),命令:
beeline -u jdbc:hive2://192.168.1.101:10000/mydemo
15、Beeline用法的简单测试(是不是表头好看点 >-< ),
退出使用 !q 命令
16、此时在hdfs中我们可以看到我们创建的数据文件
17、000000_0文件我们通过hdfs命令进行查看,命令:
hdfs dfs -cat /hive110/warehouse/mydemo.db/userinfos/000000_0