Pycharm中搭建PySpark开发环境


前言

前段时间学习了Python版本GDAL处理空间数据的知识,并使用GDAL实现了多线程栅格切片的功能,该功能在处理大的栅格数据的切片时,性能方面很不理想,因此决定研究下Spark+GDAL模式下的切片。由于以前开发的Spark任务都是使用Java+Scala在Eclipse环境下开发的,现在要基于Python开发,总要先有个Pyspark开发环境吧,于是就有了这篇 Python环境下搭建Spark开发环境的文章。

以下是本篇文章正文内容,下面案例可供参考

一、本机环境

  1. Anaconda3-5.3.1
  2. Spark2.3.0
  3. Pycharm2019.2

二、PySpark安装步骤

1.命令提示符中使用Anaconda创建虚拟环境

由于本机安装的Anaconda自带的是python3.7,且Spark版本为2.3.0(版本偏旧),故在Anaconda中创建了一个新的虚拟环境,执行以下命令:

conda create -n spark_gdal python=3.6

其中spark_gdal为创建的虚拟环境的名称,python=3.6表示该虚拟环境使用的python版本为3.6,执行后截图如下:

  • 8
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值