2020-11-19

Anaconda3的python3环境下使用pyspark报错问题解决

问题描述

系统默认安装是python2,安装的hadoop相关的python可执行脚本也是python2版本的。

在这种情况下,直接运行pyspark可以正常进入shell。

但如果anaconda3的多环境使用了python3,直接运行pyspark会报错:

File "/usr/bin/hdp-select" ...

解决办法

修改以下两个文件的运行环境,

/etc/hadoop/conf/topology_script.py

/usr/bin/hdp-select

即vi,将第一行代码修改为:/usr/bin/python (这个是默认的python2的执行文件)。

再运行pyspark。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值