canopy java_pyspark Py4J错误,使用canopy:pythonacumeratorv2([类java.lang.String,类java.lang.Integer,类java.l...

我在windows以及python和pyspark上安装了canopy IDE。执行程序代码时,出现sparK上下文问题:findspark.init()

conf = SparkConf().setMaster('local').setAppName('MonEssai')

sc = SparkContext.getOrCreate();

lines = sc.textFile("file:///PremiéreEssai/ file9.txt")

fun = lines.flatMap(listsGraph)

results =fun.collect()

for result1 in results:

if(result1):

if ((result1[0].strip().startswith("sub_"))|(result1[0].strip().startswith("start"))):

for k in range(0,len(result1)):

if result1[k] not in Loc:

Loc.append(result1[k])

else :

for j in range(0,len(result1)):

if result1[j] not in Ext:

Ext.append(result1[j])

result3 = sc.parallelize(Ext)

ExtSimilarity= result3.map(MatchExt).filter(lambda x: x != None).collect()

#print(ExtSimilarity)

#print(Loc)

result3 = sc.parallelize(Loc)

result9= result3.map(pos_debut)

result11= result9.map(opcode)

VectOpcode= result11.flatMapValues(f).flatMap(lambda X: [((X[0],len(X[1])))]).groupByKey().mapValues(list)

VectOpcode2 = VectOpcode.collect()

我得到了以下错误:Py4JError: An error occurred while calling

None.org.apache.spark.api.python.PythonAccumulatorV2. Trace:

py4j.Py4JException: Constructor

org.apache.spark.api.python.PythonAccumulatorV2([class

java.lang.String, class java.lang.Integer, class java.lang.String])

does not exist

^{pr2}$

所以,我被困在这该怎么办?在

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值