windows下python3.6+pycharm+spark2.3+jdk1.8+hadoop2.7环境搭建

本文详细介绍了在Windows系统中如何搭建Python3.6、PySpark、Spark2.3、jdk1.8和hadoop2.7的环境,包括下载、安装、配置环境变量及PyCharm设置。在遇到jdk版本不匹配的问题时,通过更换jdk1.8解决了问题。最后成功运行测试程序,验证了环境的正确配置。
摘要由CSDN通过智能技术生成

最近要做日志分析 所以想搭建spark环境 但是又觉得双系统有点麻烦 而且文件量不大 所以就用了windows系统。

在网上看了很多博客  有篇博客介绍说spark不支持python3.6  但是我发现搭建以后测试程序也成功运行了 所以写出来跟大家分享一下。

把错误写在前头:我一开始用的jdk1.7,在控制台输入pyspark的时候一直报版本不匹配的错误,后来我换成了jdk1.8就好了。

下载jdk1.8的时候,官网上一直下载不了,我就找到了一个百度网盘的资源下载了。

1.下载spark

网址:http://spark.apache.org/downloads.html

直接点击下载即可。Hadoop2.7就是需要的hadoop版本。

2.下载hadoop

网址:http://hadoop.apache.org/releases.html#Download


左侧是版本,选择2.7.6,点击对应的binary进入下载页面。

直接点击下载即可。

3.python与pycharm下载

这些都是我之前弄好的,所以就不赘述了。这一步请直接将python的环境变量配置好。不过有一点要注意的是:

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值