hadoop2.5.2下安装Hive0.14

1、安装hadoop环境

http://blog.csdn.net/bahaidong/article/details/41865943

2、安装mysql

http://write.blog.csdn.net/postedit/42099789

3、Hive0.14下载地址,及解压

http://mirrors.cnnic.cn/apache/hive/stable/

用xftp上传到linux,解压文件

[root@master opt]# tar xzvf apache-hive-0.14.0-bin.tar.gz

改变用户及群组:

[root@master opt]# chown -R hadoop:hadoop hadoop-2.5.2

4、配置

Hive环境变量的设置:

[root@master opt]# vim /etc/profile

export HIVE_HOME=/opt/apache-hive-0.14.0-bin
export CLASSPATH=$CLASSPATH:$HIVE_HOME/lib
export PATH=$PATH:$HIVE_HOME/bin:$HIVE_HOME/conf

:wq   ##保存退出

刷新配置:[root@master opt]# . /etc/profile    或者   [root@master opt]# source /etc/profile

切换用户

[root@master opt]# su hadoop

配置Hive-env.sh

HADOOP_HOME=/opt/hadoop-2.5.2
export HIVE_CONF_DIR=/opt/apache-hive-0.14.0-bin/conf

执行如下几个命令,把Hive自带的模板文件,变为Hive实际所需的文件

[hadoop@master opt]$ cd apache-hive-0.14.0-bin/
[hadoop@master apache-hive-0.14.0-bin]$ cd conf
[hadoop@master conf]$ cp hive-default.xml.template hive-site.xml
[hadoop@master conf]$ cp hive-env.sh.template hive-env.sh
[hadoop@master conf]$ cp hive-exec-log4j.properties.template hive-exec-log4j.properties
[hadoop@master conf]$ cp hive-log4j.properties.template hive-log4j.properties

配置hive-site.xml

[hadoop@master conf]$ vim hive-site.xml

<configuration>
    <property>
        <!-- MySQ的URL配置 -->
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
    </property>
    <!-- 数据库的用户名配置-->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <!-- 此处JDBC的驱动务必加上,对应的数据配置对应的驱动-->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <description>Driver class name for a JDBC metastore</description>
    </property>
    <!-- 数据库密码配置-->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
    </property>
    <!-- HDFS路径hive表的存放位置-->
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>
    <!--HDFS路径,用于存储不同 map/reduce 阶段的执行计划和这些阶段的中间输出结果。 -->
    <property>
        <name>hive.exec.scratchdir</name>
        <value>/tmp</value>
    </property>
    <property>
        <name>mapred.child.java.opts</name>
        <value>-Xmx4096m</value>
    </property>
    <!-- 日志的记录位置-->
    <property>
        <name>hive.querylog.location</name>
        <value>/opt/apache-hive-0.14.0-bin/logs</value>
    </property>
    <property>
        <name>hive.metastore.local</name>
        <value>true</value>
    </property>
</configuration>

新建hive的数据存储目录

[hadoop@master apache-hive-0.14.0-bin]$ hadoop fs -mkdir /tmp

[hadoop@master apache-hive-0.14.0-bin]$ hadoop fs -chmod 777 /tmp

[hadoop@master apache-hive-0.14.0-bin]$ hadoop fs -mkdir /user/hive
[hadoop@master apache-hive-0.14.0-bin]$ hadoop fs -mkdir /user/hive/warehouse

下载mysql驱动包,放到hivehome目录的lib下

运行Hive

[hadoop@master apache-hive-0.14.0-bin]$ bin/hive



5、远程模式配置方式

服务端配置如上

客户端配置如下

        <property>
                <name>hive.metastore.uris</name>
                <value>thrift://master:9083</value>    #ip:端口    服务端ip或主机名
                <description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.</description>
        </property>


首先服务端启动远程仓库

[hadoop@master apache-hive-0.14.0-bin]$ hive --service metastore        #默认端口为9083

客户端连接即可

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值