1.先决条件
要先安装hadoop,安装详细见:http://blog.csdn.net/hwwn2009/article/details/39889465
2.安装hive
1)下载hive,注意hive版本与hadoop版本兼容
wget http://apache.fayea.com/apache-mirror/hive/hive-0.13.1/apache-hive-0.13.1-bin.tar.gz
2)解压
tar xzf apache-hive-0.13.1-bin.tar.gz
3)修改/etc/profile文件,添加如下:
export HIVE_HOME=/home/hadooper/hadoop/hive-0.13.1
export CLASSPATH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib:$HIVE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$PATH
由于hive的元数据可能经常更新、修改和读取的操作,因此不宜存储在hadoop的hdfs中,而是RDBMS中。主要有以下两种:
①内嵌的Derby数据库(默认的):只能允许一个会话连接,只适用于简单的测试。
②MySQL数据库(常用的):支持多用户会话。
本文将mysql替换derby,具体如下:
1)安装mysql
yum install mysql-server
2)启动mysql
service mysqld star