8.hive安装 和 Hive环境准备 (hive on Spark 、Yarn队列配置)

1 Hive安装部署

  • 1)把apache-hive-3.1.2-bin.tar.gz上传到linux目录下
  • 2)解压apache-hive-3.1.2-bin.tar.gz到/opt/module/目录下面
[root@node09 06_hive]# tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/module/
  • 3)修改apache-hive-3.1.2-bin.tar.gz的名称为hive
[root@node09 06_hive]# mv /opt/module/apache-hive-3.1.2-bin/ /opt/module/hive
  • 4)修改/etc/profile.d/my_env.sh,添加环境变量
[root@node09 06_hive]# vim /etc/profile.d/my_env.sh
  • 5)添加内容
#HIVE_HOME
export HIVE_HOME=/opt/module/hive
export PATH=$PATH:$HIVE_HOME/bin

使环境变量生效或者

[root@node09 06_hive]# source /etc/profile.d/my_env.sh
  • 6)解决日志Jar包冲突,进入/opt/module/hive/lib目录
[root@node09 lib]# mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak

2 Hive元数据配置到MySql

2.1 拷贝驱动

将MySQL的JDBC驱动拷贝到Hive的lib目录下

[root@node09 07_mysql]# cp  mysql-connector-java-5.1.48.jar /opt/module/hive/lib/

2.2 配置Metastore到MySql

在$HIVE_HOME/conf目录下新建hive-site.xml文件

[root@node09 conf]# vim hive-site.xml

添加如下内容

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://node09:3306/metastore?useSSL=false</value>
    </property>

    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>

    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>

    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>000000</value>
    </property>

    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>

    <property>
        <name>hive.metastore.schema.verification</name>
        <value>false</value>
    </property>

    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://node09:9083</value>
    </property>

    <property>
    <name>hive.server2.thrift.port</name>
    <value>10000</value
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 1. 下载Spark2.3二进制包并解压缩到指定目录下。 2. 配置Spark2.3环境变量,包括SPARK_HOME、PATH等。 3. 在Hive配置文件hive-site.xml中添加以下配置: <property> <name>hive.execution.engine</name> <value>spark</value> </property> <property> <name>spark.master</name> <value>yarn</value> </property> <property> <name>spark.submit.deployMode</name> <value>client</value> </property> <property> <name>spark.executor.memory</name> <value>2g</value> </property> <property> <name>spark.executor.instances</name> <value>2</value> </property> <property> <name>spark.yarn.queue</name> <value>default</value> </property> 4. 在CDH管理界面中,选择“服务”->“Hive”->“配置”,在“Hive服务高级配置分类”中添加以下配置hive.spark.client.server.connect.timeout=600 hive.spark.client.connect.timeout=600 hive.spark.client.rpc.max.size=52428800 hive.spark.client.rpc.threads=8 hive.spark.client.rpc.maxRetries=3 hive.spark.client.rpc.retryInterval=3000 5. 重启Hive服务,使配置生效。 以上就是在CDH5上离线安装Spark2.3并配置Hive on Spark2的步骤。 ### 回答2: CDH5是Cloudera的企业级Hadoop分布式平台,它包含了Hadoop、HiveSpark、HBase等大数据生态系统的核心组件。本文将介绍如何在CDH5上离线安装Spark2.3并配置Hive on Spark2。 一、下载Spark2.3压缩包 首先,在离线环境中下载Spark2.3的二进制压缩包。可以前往Spark的官方网站(https://spark.apache.org/downloads.html)下载,或者在其他可联网的环境中下载后通过U盘等方式复制到离线环境中。 二、解压Spark2.3压缩包 把下载好的Spark2.3压缩包复制到离线环境中,并解压到指定目录下(例如:/opt/software)。 tar -xzvf spark-2.3.0-bin-hadoop2.7.tgz -C /opt/software 三、配置Spark2.3 1. 配置spark-env.sh 在Spark2.3的解压目录中,会有一个conf目录,里面包含了Spark的一些配置文件。我们需要修改其中的spark-env.sh文件,添加以下内容: export HADOOP_CONF_DIR=/etc/hadoop/conf export SPARK_LOCAL_IP=127.0.0.1 export SPARK_MASTER_HOST=127.0.0.1 export SPARK_MASTER_PORT=7077 其中,HADOOP_CONF_DIR指定的是Hadoop的配置文件所在目录,SPARK_LOCAL_IP是Spark本地IP地址,SPARK_MASTER_HOST指定的是Spark的master节点地址,SPARK_MASTER_PORT指定的是Spark的master节点端口号。 2. 配置spark-defaults.conf 修改spark-defaults.conf文件,添加以下内容: spark.executor.extraClassPath /opt/software/spark-2.3.0-bin-hadoop2.7/jars/* spark.driver.extraClassPath /opt/software/spark-2.3.0-bin-hadoop2.7/jars/* 其中,extraClassPath指定的是Spark j开头的jar包所在的目录。这些jar包包含了Spark运行所需的所有依赖。 四、配置Hive on Spark2 在用Spark2.3运行Hive之前,需要先配置Hive on Spark2。此配置步骤需要在Hive安装之前完成。 1. 创建hive-site.xml文件 在Hive的conf目录下,创建hive-site.xml文件,并添加以下内容: <property> <name>hive.execution.engine</name> <value>spark</value> <description>选择Hive on Spark2作为执行引擎</description> </property> <property> <name>spark.master</name> <value>spark://127.0.0.1:7077</value> <description>指定Spark的master地址</description> </property> <property> <name>spark.submit.deployMode</name> <value>client</value> <description>指定Spark的deploy模式</description> </property> <property> <name>spark.executor.instances</name> <value>1</value> <description>指定每个任务的executor数量</description> </property> <property> <name>spark.driver.extraClassPath</name> <value>/opt/software/spark-2.3.0-bin-hadoop2.7/jars/*</value> <description>指定Spark的依赖jar包所在的目录</description> </property> 2. 修改hive-exec.jar 在Hive的lib目录下,找到hive-exec.jar包,将其解压,编辑hive-site.xml文件,添加如下内容: <property> <name>hive.execution.engine</name> <value>spark</value> <description>选择Hive on Spark2作为执行引擎</description> </property> <property> <name>hive.spark.client.server.connect.timeout</name> <value>600s</value> <description>指定连接Spark的超时时间</description> </property> 重新生成hive-exec.jar: jar -cf hive-exec.jar . 3. 启动SparkSpark的解压目录下,执行以下命令启动Spark: ./sbin/start-all.sh 启动成功后,可以通过以下命令查看Spark的Web UI: http://127.0.0.1:8080 四、启动Hive on Spark2 在完成了SparkHive配置之后,就可以启动Hive on Spark2了。 1. 在Hive的bin目录下,执行以下命令启动Hive: ./hive 2. 运行Hive命令 可以执行以下Hive命令测试是否配置成功: hive> show databases; 如果一切正常,将看到当前数据仓库中的所有数据库名称。 以上就是在CDH5上离线安装Spark2.3并配置Hive on Spark2的步骤。 ### 回答3: CDH5是一套Hadoop发行版,其中包含了许多大数据组件。在CDH5上离线安装Spark2.3并配置Hive on Spark2需要进行以下步骤: 第一步,安装Java和Scala Java和Scala是Spark的预备条件。安装Java和Scala可以通过以下命令: $ sudo yum install java-1.8.0-openjdk $ sudo yum install scala 第二步,下载Spark 2.3 Spark最新的版本是2.3.0。从官方网站上下载Spark 2.3。下载后,将其解压到合适的目录中。例如,解压到/opt目录中: $ sudo tar xzf spark-2.3.0-bin-hadoop2.7.tgz -C /opt/ 第三步,配置Spark环境变量 为了正确的运行Spark,需要设置环境变量。设置环境变量的方法如下: $ cd /opt $ sudo mv spark-2.3.0-bin-hadoop2.7 spark $ nano /etc/profile 将以下语句添加到文件末尾: export SPARK_HOME=/opt/spark export PATH=$PATH:$SPARK_HOME/bin 执行source命令,以便更改生效。 $ source /etc/profile 第四步,安装Hive on Spark2 要在Spark中使用Hive需要配置Hive on Spark2。安装Hive on Spark2可以执行以下命令: $ sudo yum install hive $ cd /opt/spark $ ./sbin/start-thriftserver.sh --master local --hiveconf hive.server2.thrift.port=10000 --hiveconf hive.server2.thrift.bind.host=localhost --hiveconf hive.server2.transport.mode=binary --hiveconf hive.server2.thrift.http.path=cliservice 第五步,使用Spark-shell 安装Spark配置Hive on Spark2,可以使用Spark-shell测试配置是否正确: $ /opt/spark/bin/spark-shell --master yarn --deploy-mode client 如果没有问题,便可以在Spark上使用Hive。 总结 通过以上步骤,在CDH5上离线安装Spark2.3并配置Hive on Spark2可以成功实现。这项工作的完成让您在现有的底层设施上建立一个强大的大数据处理和分析系统。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值