理工学---数据基础---大数据---spark使用方法(二)

Spark使用过程中报错汇总

报错1: “ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*]) ”
原因:出现这个错误是因为之前已经启动了SparkContext
解决方法:查看代码,看是否有多次运行SparkContext实例;也可以先关闭spark(sc.stop() // 关闭spark ),然后再启动。
报错2: “AttributeError: ‘PipelinedRDD’ object has no attribute ‘toDF’”
原因:toDF()是运行在Sparksession(1.X版本的Spark中为SQLContext)内部的一个补丁,如果有其他函数用到toDF(),那么需要先创建SparkSession()。
解决方法:以IndexedRow()为例,当利用IndexedRow()产生RDD时,需要

sc=SparkContext()
SparkSession(sc)#利用SparkSession来使sc具有处理PipelinedRDD的能力
indexedRows = sc.parallelize([IndexedRow(0, [1, 2, 3]),IndexedRow(1, [4, 5, 6]),IndexedRow(2, [7, 8, 9]),IndexedRow(3, [10, 11, 12])])
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值