python开发可以用idea吗_用IntelliJ IDEA编写和运行pyspark

我正试图在IntelliJ中使用Pyspark,但我不知道如何正确安装它/设置项目。我可以在IntelliJ中使用Python,也可以使用pyspark shell,但是我不能告诉IntelliJ如何找到Spark文件(导入pyspark会导致“importterror:No module named pyspark”)。

任何关于如何包含/导入spark以便IntelliJ可以使用它的技巧都是值得赞赏的。

谢谢。

更新:

我试过这段代码:from pyspark import SparkContext, SparkConf

spark_conf = SparkConf().setAppName("scavenge some logs")

spark_context = SparkContext(conf=spark_conf)

address = "C:\test.txt"

log = spark_context.textFile(address)

my_result = log.filter(lambda x: 'foo' in x).saveAsTextFile('C:\my_result')

包含以下错误消息:Traceback (most recent call last):

File "C:/Users/U546816/IdeaProjects/sparktestC/.idea/sparktestfile", line 2, in

spark_conf = SparkConf().setAppName("scavenge some logs")

File "C:\Users\U546816\Documents\Spark\lib\spark-assembly-1.3.1-hadoop2.4.0.jar\pyspark\conf.py", line 97, in __init__

File "C:\Users\U546816\Documents\Spark\lib\spark-assembly-1.3.1-hadoop2.4.0.jar\pyspark\context.py", line 221, in _ensure_initialized

File "C:\Users\U546816\Documents\Spark\lib\spark-assembly-1.3.1-hadoop2.4.0.jar\pyspark\java_gateway.py", line 35, in launch_gateway

File "C:\Python27\lib\os.py", line 425, in __getitem__

return self.data[key.upper()]

KeyError: 'SPARK_HOME'

Process finished with exit code 1

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值