解决:caused by: java.io.ioexception: error=13, permission denied

25 篇文章 0 订阅
14 篇文章 0 订阅

实验环境

centos 7;cdh5.15; anaconda3

问题描述

笔者使用Cloudera Manager对集群中的机器进行分配组件,这里用的就是Spark2组件。

python 环境,及这些组件都安装好,在Pyspark交互界面读取文件时报错:

Caused by: java.io.IOException: Cannot run program "/root/anaconda3/bin/python": error=13, Permission denied
	at java.lang.ProcessBuilder.start(ProcessBuilder.java:1048)
	at org.apache.spark.api.python.PythonWorkerFactory.startDaemon(PythonWorkerFactory.scala:197)
	at org.apache.spark.api.python.PythonWorkerFactory.createThroughDaemon(PythonWorkerFactory.scala:122)
	at org.apache.spark.api.python.PythonWorkerFactory.create(PythonWorkerFactory.scala:95)
	at org.apache.spark.SparkEnv.createPythonWorker(SparkEnv.scala:117)
	at org.apache.spark.api.python.BasePythonRunner.compute(PythonRunner.scala:108)
	at org.apache.spark.api.python.PythonRDD.compute(PythonRDD.scala:65)
	at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:324)
	at org.apache.spark.rdd.RDD.iterator(RDD.scala:288)
	at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:90)
	at org.apache.spark.scheduler.Task.run(Task.scala:121)
	at org.apache.spark.executor.Executor$TaskRunner$$anonfun$10.apply(Executor.scala:403)
	at org.apache.spark.util.Utils$.tryWithSafeFinally(Utils.scala:1405)
	at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:409)
	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
	... 1 more
Caused by: java.io.IOException: error=13, Permission denied
	at java.lang.UNIXProcess.forkAndExec(Native Method)
	at java.lang.UNIXProcess.<init>(UNIXProcess.java:247)
	at java.lang.ProcessImpl.start(ProcessImpl.java:134)
	at java.lang.ProcessBuilder.start(ProcessBuilder.java:1029)

问题分析及解决

根据以上报错,说的就是无访问权限。这可都是系统默认安装的,这是怎么回事呢?一脸尼克杨问号!!!!

之后就是google、baidu和bing 各种检索。大多说的是:修改环境变量~/.bashrc,其实这一点我早就改过了,还是未能解决。

对了,这里提一下。对于这个报错,要看你是如何安装spark。我是手动,用Cloudera Manager分配都试过。至此手动安装的是可以正常读取HDFS文件(这个报错也是容易解决),唯独使用Cloudera Manager 分配的组件不能正常工作。

手动安装 Spark

这里也说下手动安装Spark,环境变量的配置。

我是参考厦门大学数据库实验室来做的,给出了链接

使用 Clouder Manager 分配

在网上搜索找到下图:
在这里插入图片描述
意思就是在每个节点上都要有相同的Python,由于这一个问题好久都没解决,但凡有希望那都得去试试。于是在七台虚拟机上挨个装了 anaconda ,真是苦力活,但是未果(不过也建议个节点上保持版本一致)。

继续解决,直到看到下面两张图:

首先这位作者先是抛出问题,和我的报错很像。
在这里插入图片描述
最后,看到他自己回帖。说是重新安装了anaconda/opt/anaconda目录下问题得以解决。
在这里插入图片描述
安装上面给的提示,我将anaconda重新安装在/opt/目录下(默认是安装在 /root目录下),果然可以正常读取HDFS中的数据了。

linux系统安装 anaconda 参考文件
注意:这里安装完之后,记得修改 ~/.bashrc 文件中的环境变量

export PYSPARK_DRIVER_PYTHON=ipython
export PYSPARK_PYTHON=/opt/anaconda/bin/python

成功读取HDFS文件:

(base) [root@slave3 opt]# pyspark2
Python 3.7.3 (default, Mar 27 2019, 22:11:17) 
Type 'copyright', 'credits' or 'license' for more information
IPython 7.4.0 -- An enhanced Interactive Python. Type '?' for help.
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
19/08/07 14:15:17 WARN lineage.LineageWriter: Lineage directory /var/log/spark2/lineage doesn't exist or is not writable. Lineage for this application will be disabled.
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /__ / .__/\_,_/_/ /_/\_\   version 2.4.0.cloudera1
      /_/

Using Python version 3.7.3 (default, Mar 27 2019 22:11:17)
SparkSession available as 'spark'.

In [1]: input = sc.textFile("/user/platform/dga/output_file/20190610172348.txt")                                         

In [2]: input.first()                                                                                                    
Out[2]: 'baidu.com,legit,0.15,0.85'                                             

In [3]: input.take(10)                                                                                                   
Out[3]: 
['baidu.com,legit,0.15,0.85',
 'taobao.com,legit,0.0,1.0',
 'vovo.tech,legit,0.0,1.0',
 'ecmychar.live,legit,0.05,0.95',

至此,这个闹心的问题得以解决。真正解决问题的方式很简单,但是找出问题出错原因是真不容易。

从一名不羁的码农开始,谈风月之余谈技术
在这里插入图片描述

  • 8
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
### 回答1: 这是一个Java程序出现的错误,错误信息为“createprocess error=2,系统找不到指定的文件”。这通常是因为程序尝试执行一个不存在的文件或路径,导致无法创建进程。可能需要检查程序中的文件路径或文件名是否正确,或者检查系统中是否存在所需的文件。 ### 回答2: 在Java开发中,我们有时会遇到这样的异常:caused by: java.io.ioexception: createprocess error=2,系统找不到指定的文件。这是由于Java系统在创建一个新的进程时,找不到指定的可执行文件,从而抛出的异常。 造成这个异常的最常见的原因是路径错误。当我们在处理输入、输出等操作时,需要指定正确的文件路径。如果文件路径不存在,那么Java就会抛出这个异常。另一个可能的原因是消息提示中已经明确指出的,也就是指定的文件不存在。在这种情况下,我们需要检查一下文件是否存在,如果不存在,需要重新编写路径或创建需要的文件。 为了避免这个问题,我们需要写出可靠的代码并遵循以下最佳实践: 1.正确编写文件路径,确保所有文件都能够被找到。 2.程序执行期间不要删除或移动文件,避免找不到文件。 3.注意检查错误日志,尽可能确定出错的原因并进行调整。 4.确保文件在Java程序中可以正确地打开和关闭。 在开发中遇到这种异常的时候,需要及时找到问题并修复。通过注意细节,合理编写代码并严格执行上述最佳实践,我们可以避免这类异常并提高代码的可靠性和健壮性。 ### 回答3: 这个错误是Java程序在执行调用系统命令时出现的错误。具体地说,是因为Java程序调用了一个不存在或者无法找到的文件,然后导致系统无法创建这个命令。 Java程序可以通过ProcessBuilder或Runtime.getRuntime().exec()方法来执行系统命令。当程序运行到exec()方法时,会创建一个子进程来执行系统命令,然后将子进程的输入和输出管道与Java程序的输入和输出连接起来。 如果在调用运行系统命令时,Java程序无法找到指定的文件,例如指定的文件不存在,或者程序没有权限访问该文件等,则会抛出上述异常。 解决这个问题的方法有很多,其中一种方法是检查Java程序的路径和文件名是否正确。另外,还可以通过设置环境变量来解决该问题。还有一种方法是使用绝对路径来调用系统命令,这样可以避免出现找不到指定文件的错误。 总之,这个异常的出现是由于Java程序无法找到指定的文件,需要我们检查Java程序的路径和文件名是否正确,或通过设置环境变量或使用绝对路径来避免该问题的出现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值