【Spark案例】本地访问cdh集群不将配置文件放入resource目录方式

本文介绍了如何在不将配置文件放入resource目录的情况下,使用Spark本地访问CDH集群。针对Java和Python两种环境,分别提供了解决方案。在Java中,通常需要将配置文件放入resource目录,但在Python中,可以直接读取配置文件内容,设置SparkConf参数来实现远程集群的访问。
摘要由CSDN通过智能技术生成

【Spark案例】本地访问cdh集群不将配置文件放入resource目录方式

背景故事

今天我领导,他想用pyspark连接集群中的hive,作数据分析用。于是这变成了一个在本地集群中如何访问远程集群的问题。
python环境中使用pyspark构建sparkSession的过程当中,config参数选项里面配置了一个hive.metastore.uris的时候,sparkSession能够访问hive的数据库,及表信息。但是读取数据的时候会发生报错。

问题分析

在java中

如果是maven构建的java项目当中,使用spark远程连接集群的话,需要在项目中的resource文件目录下面将hadoop的配置文件如hdfs-site.xml,core-site.xml,mapred-site.xml,yarn-site.xml文件放置进resource目录中。接下来运行的时候,maven会将这些配置文件打包到classpath中。然后源代码中,就会加载这些配置文件,相关的代码如下:
代码路径:org/apache/hadoop/conf/Configuration.java

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值