方法一:
降低pyspark版本,博主亲测可用。
博主之前安装的pyspark是3.1.1版本,Pycharm运行报Python worker failed to connect back错误,然后改成3.0.1版本,不再报错。
from pyspark import SparkContext, SparkConf
conf = SparkConf().setAppName("yasaka").setMaster("local")
sc = SparkContext(conf=conf)
data = ["shanghai university", "anhui daxue", "nanjing daxue"]
rdd = sc.parallelize(data)
result = rdd.map(lambda sen:sen.split()).collect()
print(result)
方法二
在安装过程中,请务必注意版本,本人在第一次安装过程中,python版本为3.8,spark版本为3.1.1的,故安装后,在运行pyspark的“动作”语句时,一直报错 Python worker failed to connect back尝试很多办法都无法是解决这个问题,
最后只能将spark版本由3.1.1改为2.4.5,(即安装文件由spark-3.1.1-bin-hadoop2.7.tgz改为spark-2.4.5-bin-hadoop2.7.gz)
以上只是把spark的版本降低了,但是如果python版本不降低,仍然会报错如下,
TypeError:an integer is required(got type bytes)
因为 spark还不支持python3.8,所以需要将python版本将到3.7以下,本次我用了python3.6.6,完美解决