anaconda pyspark 用着用着在终端出现错误ERROR SparkContext: Error initializing SparkContext

之前一直是可以使用anaconda pyspark,今天重新运行原来已有的模块时,出现错误:“spark"模块没有定义。于是用sc.master试试有没有出错,仍旧出错。
终端日志:其实有好大一串,我就复制了下面一点

ERROR SparkContext: Error initializing SparkContext. java.net.BindException: Cannot assign requested address: Service 'sparkDriver' failed after 16 retries (on a random free port)! Consider explicitly setting the appropriate binding address for the servic

然后到网上搜,看到可能是网络地址的原因,于是用ifconfig查看此虚拟机的地址,发现由原来的192.168.127.130变为了192.168.127.133
于是在/etc/host文件修改地址
最后在终端输入

PYSPARK_DRIVER_PYTHON="jupyter" PYSPARK_DRIVER_PYTHON_OPTS="notebook" pyspark

之前的错误解决了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值