hadoop3.1.3+hive3.1.2+spark2.4.5组成hive on spark

本文介绍了如何使用hadoop3.1.3、hive3.1.2和spark2.4.5搭建Hive on Spark环境。重点配置包括hive-site中设置hdfs中spark的jar依赖,以及spark-defaults中指定master、executor内存等参数。在过程中可能遇到的错误,如guava版本不兼容和缺少hive中spark相关jar,作者给出了详细的解决办法和相关jar的下载链接。
摘要由CSDN通过智能技术生成

hadoop 配置就不记录了,百度都有

hive就是用开源的3.1.2版本,官方默认是支持spark2.4.5的

hive-site注意配置hdfs中spark的jar依赖,这里要注意路径

这里的spark用的是自己编译的版本,依赖于hadoop3.1.3,并排除了hive依赖

spark-default 如下

spark.master yarn
spark.eventLog.enabled true
spark.eventLog.dir hdfs://hadoop01:8020/spark-history
spark.executor.memory 1g
spark.driver.memory 1g
spark.yarn.jars hdfs://hadoop01:8020/user/root/spark-jars/* 

这里需要注意的点:

①资源最好分配大一点

②yarn.jars要注意端口号和jars的路径,这个路径是hdfs的路径,要到hdfs上做对照

③spark-history要提前创建好

spark-env 测试环境只做了简单配置确保可以运行,如果需要调整再添加即可

YA

  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值