- 博客(1)
- 收藏
- 关注
原创 python+linux后续
之前本来一直想利用PyCharm+Spark+Python的环境,千辛万苦好像可以正常运行Spark应用程序了,但是临门一脚,居然出现编码的问题,能力有限,实在搞不定了,只能在Linux下搞了,好吧,Linux的Hadoop和Spark环境以及配置成功,现在就只差pyspark的配置了,其实很简单,就是在/etc/profile文件里面添加下面一行命令: export PYTHONPATH=$S
2016-06-07 16:59:53 1041
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人