java hdfs 2.0_java.io.IOException:不完整的HDFS URI,没有主机:在AWS上运行pyspark

在AWS上初次使用时,尝试通过pyspark读取存储在AWS上的文件,遇到了java.io.IOException:不完整的HDFS URI,没有主机的错误。尝试了不同URI格式,如'hdfs:///:/home/ubuntu/artist_stuff/_artist_data'和'hdfs:////home/ubuntu/artist_stuff/_artist_data',但均失败。错误日志显示问题出在HDFS URI的主机缺失。使用'file:///home/ubuntu/artist_stuff/_artist_data'则引发InvalidInputException:输入路径不存在。
摘要由CSDN通过智能技术生成

我是第一次使用AWS,并且已将我的文件存储在AWS上 . 到目前为止,这是我尝试用来读取文件的内容 .

artist_data = sc.textFile('hdfs:///:/home/ubuntu/artist_stuff/_artist_data')

还尝试过:

artist_data = sc.textFile('hdfs:home/ubuntu/artist_stuff/_artist_data')

然后我就做了我的RDD:

artist_data = artist_data.map(lambda line:line.encode("ascii", "ignore").strip().split()).filter(lambda line: len(line) > 1)

每次运行artist_data.collect()时都会出现此错误 .

当我刚尝试 sc.textFile("file:///home/ubuntu/artist_stuff/_artist_data") 时,我得到一个不同的错误:InvalidInputException:输入路径不存在:file:/ home / ubuntu / Assignment_2 / _artist_data我猜是由于分区或其他东西而导致的错误 . 因此我选择将其编码为 hdfs:///

这是完整的错误 - 日志:

()最近的Py4JJavaError Traceback(最近一次调用)

----> 1 artist_data.collect()

/home/ubuntu/spark-2.0.0-bin-hadoop2.7/python/pyspark/rdd.py in collect(sel

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值