windows 7 python spark环境搭建笔记(待续)

windows 7 python spark环境搭建笔记

1. 安装Anaconda 3, python3.6, JAVA

2. 安装spark,解压到d:\spark, hadoop到d:\hadoop

3.到Anaconda3添加spark环境

4.到我的电脑,高级,添加环境变量

系统变量:

HADOOP_HOME=D:\HADOOP

SPARK_HOME=D:\SPARK

PATH=C:\ProgramData\Oracle\Java\javapath;%SystemRoot%\system32;%SystemRoot%;%SystemRoot%\System32\Wbem;%SYSTEMROOT%\System32\WindowsPowerShell\v1.0\;%SPARK_HOME%\bin;%Path%;D:\Spark\bin

用户变量:

path=%JAVA_HOME%\bin;%SPARK_HOME%\bin;%SPARK_HOME%\sbin;%HADOOP_HOME%\bin


测试:

打开 spyder

from pyspark import SparkConf, SparkContext
conf = SparkConf().setMaster("local[*]").setAppName("First_App")
sc = SparkContext(conf=conf)
data = [1, 2, 3, 4, 5]
distData = sc.parallelize(data)
print(distData)

结果:

Reloaded modules: pyspark, pyspark.conf, pyspark.context, pyspark.accumulators, pyspark.cloudpickle, pyspark.util, pyspark.serializers, pyspark.broadcast, pyspark.files, pyspark.java_gateway, pyspark.find_spark_home, pyspark.storagelevel, pyspark.rdd, pyspark.join, pyspark.resultiterable, pyspark.statcounter, pyspark.rddsampler, pyspark.shuffle, pyspark.heapq3, pyspark.traceback_utils, pyspark.status, pyspark.profiler, pyspark.taskcontext, pyspark.version, pyspark._globals, pyspark.sql, pyspark.sql.types, pyspark.sql.context, pyspark.sql.session, pyspark.sql.conf, pyspark.sql.dataframe, pyspark.sql.column, pyspark.sql.readwriter, pyspark.sql.utils, pyspark.sql.streaming, pyspark.sql.udf, pyspark.sql.catalog, pyspark.sql.group, pyspark.sql.window
ParallelCollectionRDD[0] at parallelize at PythonRDD.scala:175

初步成功,还有java版本问题,待续

继续补救:

1. 添加python环境变量 “C:\Users\...\AppData\Local\Programs\Python\Python36”

2. 安装setuptools-28.6.0:在目录下执行 cmd--python setup.py install

3.到pyspark目录下执行 cmd--python.py install

spyder下 import pyspark 成功






  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值