Hive安装及遇到的问题

首先明白hive只在一个节点上安装就可以

然后安装hive必须在安装有hadoop的基础上才可以运行

准备工作:

1)hive安装包下载apache-hive-1.2.1-bin.tar.gz

2)mysql安装包下载MySQL-server-5.5.51-1.linux2.6.i386.rpm(服务端),MySQL-client-5.5.51-1.linux2.6.i386.rpm(客户端)

3)mysql-connector-java-5.1.39.tar.gz,主要是用里面的mysql connect的jar包

安装开始:

一、安装mysql

1)首先检查一下之前是否已经安装过mysql,安装过的话,最好卸载重新安装。

rpm -qa | grep MySQL

      如果已经安装用rpm -e --nodeps 文件名卸掉

2)安装mysql用命令rpm -ivh MySQL-server-5.5.51-1.linux2.6.i386.rpm,很快就回安装完成,用安全模式后台启动,命令:mysqlid_safe &

3)安装mysql客户端rmp -ivh MySQL-client-5.5.51-1.linux2.6.i386.rpm,很快安装完成。

4)安装完成后,默认的用户名是root,密码为空,为了安全期间,需要修改密码等操作。

      用命令mysql_secure_installaction, 其中会询问是否更改密码,输入y;是否删除匿名用户,输入n;是否关闭root的远程登录,输入n;是否删除mysql的测试数据库,输入n;是否从新刷新权限表,输入y;   

      当然上述的y/n根据自己情况决定

5)配置mysql中的hive库的操作权限 ,mysql进入命令终端,输入:

grant all on hive.* to 'root'@'%'  identified by 'root'   (我的用户名和密码都是root)

flush privileges;使权限生效

二、配置hive

1)修改hive-site.xm;  mv hive-default.xml.templatehive-site.xml

hive-site.xml(删除所有内容,只留一个xml头文件和框架内容 

添加内容为:

<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.1.3:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description>password to use against metastore database</description>
</property>
<property>
  <name>hive.metastore.uris</name>
  <value>thrift://192.168.1.1 :9083</value>
</property>
2)修改hive-env.sh

 mv hive-env.sh.template hive-env.sh

在最后一行添加内容:

export HADOOP_HOME=/home/hadoop/hadoop-2.6.0
export HIVE_HOME=/home/hadoop/hive-1.2.1
export HIVE_CONF_DIR=/home/hadoop/hive-1.2.1/conf
3)修改hive-config.sh    bin目录下的

在最后一行添加内容:

export HADOOP_HEAPSIZE=${HADOOP_HEAPSIZE:-256}
export HADOOP_HOME=/home/hadoop/hadoop-2.6.0
export SPARK_HOME=/home/hadoop/spark-1.6.0
export JAVA_HOME=/usr/java/jdk1.7.0/
4)把mysql-connector-java的jar包放入到 apache-hive-1.2.1/lib/下

5)  需要更换Hadoop下面的jline文件
  $HIVE_HOME/lib/jline-2.12.jar放到$HADOOP_HOME/share/hadoop/yarn/lib/jline-2.12.jar

6)   启动metastore,远程访问hive。nohup hive --service metastore &

三、启动

先启动hadoop的hdfs和yarn,再启动hive



可能遇到的问题:

http://blog.csdn.net/jiangshouzhuang/article/details/49340233

http://blog.csdn.net/behandthetime/article/details/50589550

http://blog.csdn.net/reesun/article/details/8556078

推荐博客:http://blog.csdn.net/blue_jjw/article/details/50479263


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值