Exception in thread "main" java.util.NoSuchElementException 错误解决

180 篇文章 0 订阅
57 篇文章 2 订阅

spark-2.4.0-bin-hadoop2.7 和 spark-2.3.0-bin-hadoop2.7是有区别的。

当时pyspark测试程序的运行环境

 

C:\Users\test>java -version
java version "1.8.0_131"
Java(TM) SE Runtime Environment (build 1.8.0_131-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.131-b11, mixed mode)

C:\Users\pingan>python -V
Python 3.5.4

spark目录下的 ~\python\lib的两个文件 py4j-0.10.6-src.zip 和 pyspark.zip 已释放到 python目录下的 ~\Lib 或是 ~\Lib\site-packages,可以正常导入pyspark

C:\Users\pingan>python
Python 3.5.4 (v3.5.4:3f56838, Aug  8 2017, 02:17:05) [MSC v.1900 64 bit (AMD64)] on win32
Type "help", "copyright", "credits" or "license" for more information.
>>> from pyspark import SparkConf,SparkContext


在运行测试代码时

import os,sys
from pyspark import SparkConf,SparkContext
os.environ['SPARK_HOME'] = "F:\spark"
sc = SparkContext(appName="Spark WordCount test")
datatest = ["test spark","test spark sql","spark python"]
rdd = sc.parallelize(datatest,2)
print(rdd.first())
print(rdd.count())
sc.stop()
print("hello")

当在 “F:\spark” 目录下为spark-2.4.0-bin-hadoop2.7的文件 时,报错Exception in thread "main" java.util.NoSuchElementException,当 在"F:\spark"目录下为 spark-2.3.0-bin-hadoop2.7,错误消失,由此看来,两个spark版本对python3兼容性是有区别的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值