【已解决】Spark textFile报错InvalidInputException(小白踩坑记录)

目录

1 问题 InvalidInputException

2 背景textFile

3 解决

3.1 hdfs导入 报错原因+解决

3.2 本地导入 报错原因+解决

3.2.1 【已解决】根目录file://到底在哪里

3.2.2 hadoop看根目录

3.2.3 【已解决】本地目录里面不要空格


1 问题 InvalidInputException

org.apache.hadoop.mapred.InvalidInputException: 
    Input path does not exist

2 背景textFile

textFile是一个从外部创建RDD的函数

def textFile(
      path: String,
      minPartitions: Int = defaultMinPartitions): RDD[String] = withScope {
    assertNotStopped()
    hadoopFile(path, classOf[TextInputFormat], classOf[LongWritable], classOf[Text],
      minPartitions).map(pair => pair._2.toString).setName(path)
  }

参数:

path: String 这个地址可以是HDFS、本地文件

minPartitions= math.min(defaultParallelism, 2) 是指定数据的分区,一版默认2(如果核数大于2)

其中,path一般在写作:

hdfs文件:'hdfs:///user/root/1.txt'、‘/user/root/1.txt’;

本地文件:‘file:///user/root/1.txt’

但是,会出现上述报错

3 解决

3.1 hdfs导入 报错原因+解决

原因:我们安装hadoop时修改了文件\hadoop-2.8.5\etc\hadoop\core-site.xml

根据我们安装时填写的路径修改代码,即可

比如我的就改成 var rdd = spark.sparkContext.textFile("hdfs://localhost:9000/user/root/input")

3.2 本地导入 报错原因+解决

本地文件导入报错是因为根目录下不存在该文件!

注意hdfs根目录和spark根目录的区别!!!

同一个本地地址,spark查无此人,hadoop却是有的,因为打开spark、hadoop的根目录是不同位置!!

小白OS:不想知道为什么会让我觉得这两个的file://是一个东西   原因指路→3.2.1 【已解决】根目录file://到底在哪里

 

下图可证我的结论,我最后就都在G盘打开这俩东西了,成功

只要在一个盘里打开,即使具体位置不同,也是可以用的,也蛮方便的。

3.2.1 【已解决】根目录file://到底在哪里

在不同文件目录下打开cmd,file://指向的根目录不一样,比如:

一般人用菜单打开cmd,那么file://指C盘

有些人会在D盘安装hadoop,然后在其下打开cmd,那么file://指D盘

如果在同一个盘的不同文件中打开cmd,比如在D:/1/2位置和D:/3/4位置分别打开cmd,那么file://都指D盘

 

3.2.2 hadoop看根目录

hadoop fs -ls file://​测试一下根目录到底在哪里,根目录下是否有对应文件

一般情况你在什么大盘目录下打开,hadoop默认的根目录就在这个大盘下

举个栗子:

比如在一个G盘文件目录下打开cmd,那么根目录就在G盘下

其中,file:///hadoop目录是hadoop这个软件在自动生成的文件夹,在哪个大盘打开,就在哪里生成

3.2.3 【已解决】本地目录里面不要空格

如果本地地址有空格,报如下错误

scala> val first_half = sc.textFile("Employee_first_half.csv") first_half: org.apache.spark.rdd.RDD[String] = Employee_first_half.csv MapPartitionsRDD[1] at textFile at <console>:23 scala> val second_half = sc.textFile("Employee_second_half.csv") second_half: org.apache.spark.rdd.RDD[String] = Employee_second_half.csv MapPartitionsRDD[3] at textFile at <console>:23 scala> second_half.collect org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: file:/usr/local/module/spark-3.2.1-bin-hadoop2.7/Employee_second_half.csv at org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:287) at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:229) at org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:315) at org.apache.spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:205) at org.apache.spark.rdd.RDD.$anonfun$partitions$2(RDD.scala:300) at scala.Option.getOrElse(Option.scala:189) at org.apache.spark.rdd.RDD.partitions(RDD.scala:296) at org.apache.spark.rdd.MapPartitionsRDD.getPartitions(MapPartitionsRDD.scala:49) at org.apache.spark.rdd.RDD.$anonfun$partitions$2(RDD.scala:300) at scala.Option.getOrElse(Option.scala:189) at org.apache.spark.rdd.RDD.partitions(RDD.scala:296) at org.apache.spark.SparkContext.runJob(SparkContext.scala:2279) at org.apache.spark.rdd.RDD.$anonfun$collect$1(RDD.scala:1030) at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:151) at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:112) at org.apache.spark.rdd.RDD.withScope(RDD.scala:414) at org.apache.spark.rdd.RDD.collect(RDD.scala:1029) ... 47 elided scala> first_half.collect org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: file:/usr/local/module/spark-3.2.1-bin-hadoop2.7/Employee_first_half.csv at org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:287) at org.apache.hado什么问题
最新发布
03-25
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值