WINDOWS 10环境下的PySpark配置 (基于Anaconda环境,附加不重启情况下环境变量Path修改方式)

本文详细介绍了在Windows 10系统中,如何配置基于Anaconda环境的PySpark,包括Python、JDK、Spark、Scala、Hadoop的安装和环境变量设置,特别提醒不要使用JDK 10.0.1,推荐使用Java SE Development Kit 8u171。此外,文章还提供了不重启系统即可激活环境变量的方法。
摘要由CSDN通过智能技术生成

由于需要帮老婆完成课程作业,在ubuntu和win 10上都做了spark环境的配置,其中ubuntu环境的配置比较简单,网上教程也较多,但是win 10系统的教程中,往往忽略了很多问题,因此以下对win环境中的配置做一总结。

环境配置过程主要包括:
- Python
- JAVA (JDK)
- Spark
- Scala
- Hadoop
- 环境变量的设置
- PySpark

Python

本文使用的python环境为Anaconda环境,主要考虑的是Anaconda的集成度比较好。下载地址为:Anaconda,外网下载比较慢的话推荐:清华镜像。建议安装中将Python路径添加入Path。

JDK

JAVA的配置基本可以参照Spark在Windows下的环境搭建这篇博客。JAVA下载地址为:JAVA

极为重要的一个点,一定不要安装最新的10.0.1,会导致后续的scala和spark都无法正常使用。目前我安装的版本为:

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值