spark hadoop jdk 环境均配置正确,但是在:
在cmd下执行spark-shell 或 pyspark 总是启动失败,在网上百度下,也没找到解决方案,后来试了下用“使用管理员的身份运行”cmd 再执行spark-shell 或 pyspark 启动成功
spark hadoop jdk 环境均配置正确,但是在:
在cmd下执行spark-shell 或 pyspark 总是启动失败,在网上百度下,也没找到解决方案,后来试了下用“使用管理员的身份运行”cmd 再执行spark-shell 或 pyspark 启动成功