1 、下载Hive-0.11.0
http://apache.cs.utah.edu/hive/hive-0.11.0/
2、解压安装
Hive原则上可以安装在集群上的任何一台机器上面,但是考虑到 master节点的负荷比较大,我们选择一台机器性能较好的datanode来安装hive。在我们的集群中选择cloud003来安装hive。另外,在我们的安装中采用 mySQL来存放hive的meta数据。
2.1 解压
将hive-0.11.0.tar.gz解压到/home/hduser路径下
tar –zxvf hive-0.11.0.tar.gz
产生hive 的安装目录:/home/hduser/hive-0.11.0
如果所有配置都采用默认情况,此时hive已经可用。这里有一个问题需要注意的是,hadoop的安装路径要添加到/etc/profile,否则 hive运行时将找不到hadoop。(此时可跳过第2.2步骤,测试hive是否正常运行)
2.2配置 mySQL存放metadata (可选)
1) 这里默认mySQL已经安装(root/mysql)。由于 mysql的默认安装只允许本地登录,所以需要修改配置文件将地址绑定注释掉:
2)重启mysql: sudoservice mysql restart
3)登录msql,创建database: hive
4)修改hive配置文件hive-site.xml
默认这个文件是不存在的,进入hive安装路径(/home/hduser/hive-0.11.0/)在conf目录下,拷贝hive-default.xml.template得到hive-site.xml文件
修改以下属性:
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://16.187.94.183:3306/hive?characterEncoding=UTF-8</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>mysql</value>
</property>
</configuration>
5)把mySQL的JDBC驱动包复制到Hive的lib目录下
这里下载的版本是:mysql-connector-java-5.0.8-bin.jar
3、启动运行
3.1 配置环境变量
vim /etc/profile
添加hive环境变量:
export HIVE_HOME=/home/hduser/hive-0.11.0
export PATH=$HIVE_HOME/bin:$PATH
source /etc/profile
3.2 启动hive
在终端直接输入:hive即可,如下图:
3.3 验证hive
1)在hive上建立数据表
Hive>create table test(id int,name string) row formatdelimited fields terminated by ’\t’;
2)登录mySQL查看meta信息
use hive;
show tables;(如下图)
select* from TBLS;
至此hive配置安装成功!
http://blog.csdn.net/licongcong_0224/article/details/13512175