hive安装、配置及spark-sql远程连接hive服务

本文详细介绍了如何进行Hive的最小集群安装,包括Hive的下载、解压、配置Hadoop环境、创建数据库连接以及配置Hive-site.xml。接着讲述了如何启动Hadoop服务,并在HDFS上创建必要目录。此外,还讲解了如何配置Spark-SQL以远程连接Hive服务,涉及到hadoop的相关配置文件修改。最后提到了Ambari一键部署时可能遇到的权限问题及其解决方案。
摘要由CSDN通过智能技术生成

一、最小集群安装

1、Hive安装及配置

(1)把apache-hive-1.2.1-bin.tar.gz上传到linux的/opt/software目录下

(2)解压apache-hive-1.2.1-bin.tar.gz到/opt/module/目录下面

tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /opt/module/

(3)修改apache-hive-1.2.1-bin.tar.gz的名称为hive

mv apache-hive-1.2.1-bin/ hive

(4)修改/opt/module/hive/conf目录下的hive-env.sh.template名称为hive-env.sh

mv hive-env.sh.template hive-env.sh

(5)配置hive-env.sh文件

(a)配置HADOOP_HOME路径

export HADOOP_HOME=/opt/module/hadoop-2.7.2

(b)配置HIVE_CONF_DIR路径

export HIVE_CONF_DIR=/opt/module/hive/conf

(6)• 创建并修改hive-site.xml

– <property>

– <name>javax.jdo.option.ConnectionURL</name>

– <value>jdbc:mysql://node1/hive</value>

– </property>

– <property>

– <name>j

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值