首先明白hive只在一个节点上安装就可以
然后安装hive必须在安装有hadoop的基础上才可以运行
准备工作:
1)hive安装包下载apache-hive-1.2.1-bin.tar.gz
2)mysql安装包下载MySQL-server-5.5.51-1.linux2.6.i386.rpm(服务端),MySQL-client-5.5.51-1.linux2.6.i386.rpm(客户端)
3)mysql-connector-java-5.1.39.tar.gz,主要是用里面的mysql connect的jar包
安装开始:
一、安装mysql
1)首先检查一下之前是否已经安装过mysql,安装过的话,最好卸载重新安装。
rpm -qa | grep MySQL
如果已经安装用rpm -e --nodeps 文件名卸掉
2)安装mysql用命令rpm -ivh MySQL-server-5.5.51-1.linux2.6.i386.rpm,很快就回安装完成,用安全模式后台启动,命令:mysqlid_safe &
3)安装mysql客户端rmp -ivh MySQL-client-5.5.51-1.linux2.6.i386.rpm,很快安装完成。
4)安装完成后,默认的用户名是root,密码为空,为了安全期间,需要修改密码等操作。
用命令mysql_secure_installaction, 其中会询问是否更改密码,输入y;是否删除匿名用户,输入n;是否关闭root的远程登录,输入n;是否删除mysql的测试数据库,输入n;是否从新刷新权限表,输入y;
当然上述的y/n根据自己情况决定
5)配置mysql中的hive库的操作权限 ,mysql进入命令终端,输入:
grant all on hive.* to 'root'@'%' identified by 'root' (我的用户名和密码都是root)
flush privileges;使权限生效
二、配置hive
1)修改hive-site.xm; mv hive-default.xml.templatehive-site.xml
hive-site.xml(删除所有内容,只留一个xml头文件和框架内容)
添加内容为:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.1.3:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description>password to use against metastore database</description>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://192.168.1.1 :9083</value>
</property>
2)修改hive-env.sh
mv hive-env.sh.template hive-env.sh
在最后一行添加内容:
export HADOOP_HOME=/home/hadoop/hadoop-2.6.0
export HIVE_HOME=/home/hadoop/hive-1.2.1
export HIVE_CONF_DIR=/home/hadoop/hive-1.2.1/conf
3)修改hive-config.sh bin目录下的
在最后一行添加内容:
export HADOOP_HEAPSIZE=${HADOOP_HEAPSIZE:-256}
export HADOOP_HOME=/home/hadoop/hadoop-2.6.0
export SPARK_HOME=/home/hadoop/spark-1.6.0
export JAVA_HOME=/usr/java/jdk1.7.0/
4)把mysql-connector-java的jar包放入到
apache-hive-1.2.1/lib/下
5) 需要更换Hadoop下面的jline文件
$HIVE_HOME/lib/jline-2.12.jar放到$HADOOP_HOME/share/hadoop/yarn/lib/jline-2.12.jar
6) 启动metastore,远程访问hive。nohup hive --service metastore &
三、启动
先启动hadoop的hdfs和yarn,再启动hive
可能遇到的问题:
http://blog.csdn.net/jiangshouzhuang/article/details/49340233
http://blog.csdn.net/behandthetime/article/details/50589550
http://blog.csdn.net/reesun/article/details/8556078
推荐博客:http://blog.csdn.net/blue_jjw/article/details/50479263