spark 和hadoop的 hdfs 整合(spark sql 找不到文件)

初学spark 的时候在 spark shell窗口类里面操作以下代码对hdfs 的文件进行操作的时候会出现找不到文件的错误

val lineRDD= sc.textFile("/person.txt").map(_.split(" "))


【此处不配图了】

原因是spark 没有配置hadoop 相关的参数。

spark-env.sh 中添加HADOOP_CONF_DIR配置,指明了hadoop的配置文件(所那个文件夹, 一般在hadoop安装目录下的etc/hadoop),默认它就是使用的hdfs的文件系统, 使用其他文件系统的时候就要声明好.

export HADOOP_CONF_DIR=/opt/bigdata/hadoop-2.6.4/etc/hadoop


要使用本地文件系统的时候要配置路径 file:///本地路径


另外使用前还要注意一定要启动hdfs 才行。

 


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值