安装spark,命令行输入spark-shell,返回找不到指定的路径,解决

第一次装pyspark,在装完jdk,pyspark,hadoop和winutils之后在cmd中输入spark-shell来测试spark安装,返回了找不到指定的路径。

试了些可能的错误最后找到了问题。

这是spark-shell文件:

用到的是环境变量里的SPARK_HOME,所以即便path里面用的全路径也要创建SPARK_HOME变量。

然后JAVA_HOME和SPARK_HOME都要创建在用户环境变量,一开始我创建在了系统环境变量,这是我遇到找不到路径的原因。

别的可能的原因:

1. 路径里有空格

2. JAVA_HOME和SPARK_HOME里面包含了bin,应该停止在bin的上一级

  • 6
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值