Hive安装与部署使用mysql元数据库安装。

hive使用mysql元数据库安装

一:所需环境
apache-hive-1.2.2-bin.tar.gz 安装包
hive连接:https://pan.baidu.com/s/1D8M4dfac2GefxMg4bhiZtQ
提取码:8cl8
mysql-connector-java-5.1.6-bin.jar (mysql的jar包)
mysqljar包链接:https://pan.baidu.com/s/1rcLEs-VbkuN2MC56Odx3ZA
提取码:zh4a

二:安装步骤
默认情况下,hive元数据保存在derby数据库中,只能允许一个会话连接,只适合做测试。为了支持多用户多会话,则需要一个独立的元数据库,配置mysql作为元数据库。
1:安装mysql

[root@h201 Desktop ]# yum -y install mysql*
[root@h201 Desktop]# service mysqld restart

2.为hive创建相应mysql用户,赋予权限。(先启动mysqlservice mysqld start,然后连接mysql

mysql> create user 'hive'@'h201' identified by 'hive';
mysql> grant all privileges on *.* to 'hive'@'%' with grant option;
mysql> grant all privileges on *.* to hive@root identified by 'mysql';
mysql> flush privileges;

给mysql设置一个密码。

mysql>set password for root@h201 = password('123'); 

3.解压安装hive


[root@h201 Desktop]# tar -zxvf /opt/apache-hive-1.2.1-bin.tar.gz -C ./
[root@h201 Desktop]# apache-hive-1.2.1-bin/ hive
[root@h201 Desktop]# pwd
/usr/local/hive/conf

4.配置文件hive-env.sh,hive-site.xml两份文件

[root@h201 conf]# cp hive-env.sh.template  hive-env.sh
[root@h201 conf]# vim hive-env.sh
export HADOOP_HOME=/usr/local/hadoop-2.8.5       ##Hadoop安装路径
export HIVE_HOME=/usr/local/hive           ##Hive安装路径
export HIVE_CONF_DIR=/usr/local/hive/conf  ##Hive配置文件路径
[root@h201 conf]# cp  hive-default.xml.template hive-site.xml
[root@h201 conf]# cp  hive-default.xml.template hive-site.xml
[root@h201 conf]# vim hive-site.xml
##配置路径与配置默认数据库放到文件末尾。
#配置路径
<property>
    <name>hive.exec.scratchdir</name>
    <value>/user/hive/tmp</value>
</property>
<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
</property>
<property>
    <name>hive.querylog.location</name>
    <value>/user/hive/log</value>
</property>

#配置默认的数据库
<property>
  <name>javax.jdo.option.ConnectionURL</name>#URL
  <value>jdbc:mysql://h201:3306/hive?characterEncoding=UTF-8</value>
</property>
     <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>org.apache.derby.jdbc.EmbeddedDriver</value>
        <description>Driver class name for aJDBC metastore</description>
  </property>
  <property>
       <name>javax.jdo.option.ConnectionUserName</name>
       <value>root</value>
       <description>username to use againstmetastore database</description>
  </property>
  <property>
       <name>javax.jdo.option.ConnectionPassword</name>
       <value>123</value>
       <description>password to use againstmetastore database</description>
  </property>

#以下内容用/去查找替换
<property>
  <name>hive.exec.local.scratchdir</name>
    <value>/usr/local/hive/iotmp</value>
    <description>Local scratch space for Hive jobs</description>
</property>

<property>
   <name>hive.querylog.location</name>
    <value>/usr/local/hive/iotmp</value>
    <description>Location of Hive run time structured log file</description>
 </property>

 <property>
   <name>hive.downloaded.resources.dir</name>
    <value>/usr/local/hive/iotmp</value>
    <description>Temporary local directory for added resources in the remote file system.</description>
 </property>

注意:spark2以后,原有lib目录下的大JAR包被分散成多个小JAR包,原来的spark-assembly-*.jar已经不存在,所以hive没有办法找到这个JAR包。因此修改修改hive的启动文件

[root@h201 bin]# pwd
/usr/local/hive/bin
[root@h201 bin]# vim hive

先输入 /${SPARK_HOME}
回车定义位置

sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar

替换为

sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`

5.将mysql的jar包放到hive目录下的lib里面。

[root@h201 Desktop ]#  cp mysql-connector-java-5.1.6-bin.jar /usr/local/hive/lib

6.启动mysql

[root@h201 bin]# service mysqld start

7.启动hive

[root@h201 bin]# pwd
/usr/local/hive/bin
[root@h201 bin]# ./hive
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值