1、安装hadoop环境
http://blog.csdn.net/bahaidong/article/details/41865943
2、安装mysql
http://write.blog.csdn.net/postedit/42099789
3、Hive0.14下载地址,及解压
http://mirrors.cnnic.cn/apache/hive/stable/
用xftp上传到linux,解压文件
[root@master opt]# tar xzvf apache-hive-0.14.0-bin.tar.gz
改变用户及群组:
[root@master opt]# chown -R hadoop:hadoop hadoop-2.5.2
4、配置
Hive环境变量的设置:
[root@master opt]# vim /etc/profile
export HIVE_HOME=/opt/apache-hive-0.14.0-bin
export CLASSPATH=$CLASSPATH:$HIVE_HOME/lib
export PATH=$PATH:$HIVE_HOME/bin:$HIVE_HOME/conf
:wq ##保存退出
刷新配置:[root@master opt]# . /etc/profile 或者 [root@master opt]# source /etc/profile
切换用户
[root@master opt]# su hadoop配置Hive-env.sh
HADOOP_HOME=/opt/hadoop-2.5.2
export HIVE_CONF_DIR=/opt/apache-hive-0.14.0-bin/conf
执行如下几个命令,把Hive自带的模板文件,变为Hive实际所需的文件
[hadoop@master opt]$ cd apache-hive-0.14.0-bin/
[hadoop@master apache-hive-0.14.0-bin]$ cd conf
[hadoop@master conf]$ cp hive-default.xml.template hive-site.xml
[hadoop@master conf]$ cp hive-env.sh.template hive-env.sh
[hadoop@master conf]$ cp hive-exec-log4j.properties.template hive-exec-log4j.properties
[hadoop@master conf]$ cp hive-log4j.properties.template hive-log4j.properties
配置hive-site.xml
[hadoop@master conf]$ vim hive-site.xml
<configuration>
<property>
<!-- MySQ的URL配置 -->
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<!-- 数据库的用户名配置-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!-- 此处JDBC的驱动务必加上,对应的数据配置对应的驱动-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<!-- 数据库密码配置-->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>
<!-- HDFS路径hive表的存放位置-->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<!--HDFS路径,用于存储不同 map/reduce 阶段的执行计划和这些阶段的中间输出结果。 -->
<property>
<name>hive.exec.scratchdir</name>
<value>/tmp</value>
</property>
<property>
<name>mapred.child.java.opts</name>
<value>-Xmx4096m</value>
</property>
<!-- 日志的记录位置-->
<property>
<name>hive.querylog.location</name>
<value>/opt/apache-hive-0.14.0-bin/logs</value>
</property>
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
</configuration>
新建hive的数据存储目录
[hadoop@master apache-hive-0.14.0-bin]$ hadoop fs -mkdir /tmp
[hadoop@master apache-hive-0.14.0-bin]$ hadoop fs -chmod 777 /tmp
[hadoop@master apache-hive-0.14.0-bin]$ hadoop fs -mkdir /user/hive
[hadoop@master apache-hive-0.14.0-bin]$ hadoop fs -mkdir /user/hive/warehouse
下载mysql驱动包,放到hivehome目录的lib下
运行Hive
[hadoop@master apache-hive-0.14.0-bin]$ bin/hive
5、远程模式配置方式
服务端配置如上
客户端配置如下
<property>
<name>hive.metastore.uris</name>
<value>thrift://master:9083</value> #ip:端口 服务端ip或主机名
<description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.</description>
</property>
首先服务端启动远程仓库
[hadoop@master apache-hive-0.14.0-bin]$ hive --service metastore #默认端口为9083
客户端连接即可