Hive3 on Spark2

Spark2

下载spark2纯净版

wget https://archive.apache.org/dist/spark/spark-2.4.7/spark-2.4.7-bin-without-hadoop.tgz

安装配置纯净版

默认配置不赘述。

  • 删除多余的cmd文件

    cd 纯净版解压路径
    rm -rf */*.cmd
    
  • 配置spark-env.sh

    export HADOOP_HOME=/opt/module/hadoop3
    export SPARK_DIST_CLASSPATH=$(${HADOOP_HOME}/bin/hdfs classpath)
    

Hive3

hive-env.sh

export HADOOP_HOME=/opt/module/hadoop3
export SPARK_HOME=/opt/module/spark2-with

hive-site.xml

<configuration>
  <!-- Spark2 依赖库位置,在YARN 上运行的任务需要从HDFS 中查找依赖jar 文件 -->
  <property>
    <name>spark.yarn.jars</name>
    <value>${fs.defaultFS}/spark2-jars/*</value>
  </property>
  
  <!-- Hive3 执行引擎设为spark -->
  <property>
    <name>hive.execution.engine</name>
    <value>spark</value>
  </property>

  <!-- Hive3 和Spark2 连接超时时间 -->
  <property>
    <name>hive.spark.client.connect.timeout</name>
    <value>30000ms</value>
  </property>
</configuration>

spark-defaults.conf

spark.master              yarn
# 启用日志聚合
spark.eventLog.enabled    true
# 保存日志的HDFS 路径
spark.eventLog.dir        hdfs://sc1:9820/spark2-history
spark.executor.memory     1g
spark.driver.memory       1g

# 下面是spark 动态资源调控优化项
# 开启异步shuffle
spark.shuffle.service.enabled   true
# 异步shuffle端口
spark.shuffle.service.port      7337
# 允许动态资源调控
spark.dynamicAllocation.enabled true
# 最大Executor数
spark.dynamicAllocation.maxExecutors 128
spark动态资源调控需要yarn配置
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>spark_shuffle,mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services.spark_shuffle.class</name>
    <value>org.apache.spark.network.yarn.YarnShuffleService</value>
</property>

将spark纯净版解压目录下yarn目录中的spark-2.4.7-yarn-shuffle.jar拷贝进hadoop目录下share/hadoop/yarn/lib/下并进行分发。

spark2依赖库处理

cd /opt/module/spark2-with/jars
mv orc-core-1.5.5-nohive.jar orc-core-1.5.5-nohive.jar.bak

//上传jar包到hdfs
hdfs dfs -rm -r -f /spark2-jars
hdfs dfs -mkdir /spark2-jars
hdfs dfs -put /opt/module/spark2-with/jars/* /spark2-jars 
hdfs dfs -ls /spark2-jars

//拷贝jar包到hive
cp scala-compiler-2.11.12.jar scala-library-2.11.12.jar scala-reflect-2.11.12.jar spark-core_2.11-2.4.7.jar spark-network-common_2.11-2.4.7.jar spark-unsafe_2.11-2.4.7.jar spark-yarn_2.11-2.4.7.jar /opt/module/hive3/lib/

// 将orc上传至hdfs
hdfs dfs -put /opt/module/hive3/lib/orc-core-1.5.6.jar /spark2-jars
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

寒 暄

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值