Hive是一个构建在Hadoop上的数据仓库框架。它把用户编写的类SQL语句转化为一系列在Hadoop集群上运行的MapReduce作业。它把数据组织成表,通知这种方式为存储在HDFS的数据赋予结构。
1、 首先下载 hive-0.10.0-bin.tar.gz 网址:http://hive.apache.org/releases.html
2、 放到/usr 目录下
3、 安装hadoop
4、 解压
[root@freepp ~]# cd /usr
[root@freepp ~]# tar zxf hive-0.10.0-bin.tar.gz[root@freepp ~]# mv hive-0.10.0 hive
5、 在环境变量中配置Hive的路径
修改/etc/profile配置文件,在末尾追加以下内容并保存:
export HIVE_HOME=/usr/hive
export HIVE_CONF_DIR=$HIVE_HOME/conf
export HIVE_LIB=$HIVE_HOME/lib
export CLASSPATH=$CLASSPATH:$HIVE_LIB
export PATH=$PATH:$HIVE_HOME/bin
并输入
[root@freepp ~]# source /etc/profile
使之生效。
6、 Hive默认是采用Derby来存储其Meta信息的, 现在我们需要修改为mysql:
a) 在mysql专门为hive添加用户
mysql> CREATE USER 'hadoop'@'%' IDENTIFIED BY 'hadoop';
mysql> GRANT ALL PRIVILEGES ON *.* TO 'hadoop'@'%' WITH GRANT OPTION;
b) 修改配置文件$HIVE_HOME/conf/hive-default.xml 中的配置
$cd /usr/hive/conf
$sudo cp hive-default.xml.template hive-default.xml
$sudo cp hive-env.sh.template hive-env.sh
$sudo cp hive-exec-log4j.properties.template hive-exec-log4j.properties
$sudo cp hive-log4j.properties.template hive-log4j.properties
$sudo gedit hive-env.sh
找到#HADOOP_HOME=,去掉#,添加hadoop安装路径
c) 添加jdbc的jar包
wget http://dev.mysql.com/get/Downloads/Connector-J/mysql-connector-java-5.1.11.tar.gz/from/http://mysql.he.net/
tar -xvzf mysql-connector-java-5.1.11.tar.gz
cp mysql-connector-java-5.1.11/*.jar /data/soft/hive/lib
d) 启动hive
#bin/hive
hive> show tables;
OK
Time taken: ooxx seconds