Hive2.1.1安装与配置

Hive2.1.1安装与配置

1、配置hive环境变量 

修改环境变量

vi .bash_profie

加入hive相关的环境变量

export HIVE_HOME=/usr/hive-2.1.1 ##我的安装路径

export PATH=$HIVE_HOME/bin:$HIVE_HOME/conf:$PATH

2、修改Hive的配置文件 

hive 配置文件目录中

cd /usr/hive-2.1.1/conf
·         1

把初始化的文件复制一份出来并且改名

cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml
cp hive-log4j2.properties.template hive-log4j2.properties
cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

3、修改hive-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_65    ##Java路径

export HADOOP_HOME=/usr/hadoop-2.7.3##Hadoop安装路径

export HIVE_HOME=/usr/hive-2.1.1    ##Hive安装路径

export HIVE_CONF_DIR=/usr/hive-2.1.1/conf    ##Hive配置文件路径

 

hdfs 中创建下面的目录,并且授权

hdfsdfs -mkdir -p /user/hive/warehouse

hdfsdfs -mkdir -p /user/hive/tmp

hdfsdfs -mkdir -p /user/hive/log

hdfsdfs -chmod -R 777 /user/hive/warehouse

hdfsdfs -chmod -R 777 /user/hive/tmp

hdfsdfs -chmod -R 777 /user/hive/log

 

4、修改hive-site.xml

hive-site.xml 文件中以下几个配置项的值设置成上一步中创建的几个路径。

<property>
    <name>hive.exec.scratchdir</name>
    <value>/user/hive/tmp</value>
</property>
<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
</property>
<property>
    <name>hive.querylog.location</name>
    <value>/user/hive/log</value>
</property>
 

需要在 hive-site.xml 文件中配置 MySQL 数据库连接信息。

<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://192.168.9.200:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>root</value>
  </property>

5、创建tmp文件

 mkdir /usr/hive-2.1.1/tmp

 

 

5、配置jdbc驱动包 

mysqljdbc 驱动包下载地址:

下载完成后把mysql-connector-java-5.1.30-bin.jar然后放入 $HIVE_HOME/lib 目录下

6、初始化hive 

Hive 2.1 版本开始, 我们需要先运行 schematool 命令来执行初始化操作。

schematool -dbType mysql -initSchema

看到schemaTool completed 则初始化完成 

6、检测是否成功

检测hive 是否成功直接在命令行输入hive即可

Hive
[root@master ~]# hive
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/hive-2.1.1/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/hadoop-2.7.3/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
 
Logging initialized using configuration in file:/usr/hive-2.1.1/conf/hive-log4j2.properties Async: true
Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases.
hive>
 

7、启动客户端连接服务

nohup hiveserver2 &

 

8、启动客户端连接服务

我用是sqldeveloper.exe


 

如果连接时出现以下错误:

java.lang.RuntimeException:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.authorize.AuthorizationException): 

User root is not allowed to impersonateanonymous 错误。

修改hadoop 配置文件 etc/hadoop/core-site.xml,加入如下配置项

<property>

   <name>hadoop.proxyuser.root.hosts</name>

   <value>*</value>

</property>

<property>

   <name>hadoop.proxyuser.root.groups</name>

   <value>*</value>

</property>

 

然后重启hadoop



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值