Pyspark,Python下安装Spark,无需安装Hadoop

又是装环境斗志斗勇的一天,苦笑

之前一直不想搭虚拟机/Hadoop/spark这些环境,后来python三千万行数据实在跑不动了,知道有pyspark这等好东西,以为conda install pyspark一下就可以了,发现并没有那么简单。找了很多资料,搜了很多也没找到合适的教程,正好记录一下,希望能帮到需要的同学。不用虚拟机不用Hadoop。

环境:anconda 3.0 win10 64位

1.下载

       

       红框那个下载后解压即可,无需安装

       

         需要注册登陆一下,会发邮箱验证,其他信息随便填就行    

              

         按照默认路径安装最好

        

2.配置环境变量

  • 用户变量 SPARK_HOME 

        值:压缩文件解压路径

     

  • 系统变量 JAVA_HOME

      值:jdk安装路径

      

  • 系统变量CLASSPATH

      

      系统变量PATH添加两个新变量

      %SPARK_HOME %\bin

      %JAVA_HOME %\bin

       

        

      还有这个

       

3.jyputer检验

安装完pyspark,这两行就是成功了的,但是继续写下去就会有层出不穷的问题

import pyspark
from pyspark import SparkConf, SparkContext

我是看这个教程学习的https://www.it1352.com/OnLineTutorial/pyspark/pyspark_sparkcontext.html

README.md是spark文件夹自带的

于是爆了这个An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe. : org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 1.0 failed 1 times, most recent failure: Lost task 0.0 in stage 1.0 (TID 1, localhost, executor driver): org.apache.spark.SparkException: Python worker failed to connect back.

有文章说需要绝对路径,仍然不行

遇到的问题

1.spark-env.sh文件,刚开始看到好几个人写这个了但是找不到在哪

原来的它后面有蓝色框,最下面填完三句把蓝色的后缀删了【忘了在哪看的了】

 export PYSPARK_PYTHON=/C:/Users/10391/AppData/Local/Continuum/anaconda3
 export PYSPARK_DRIVER_PYTHON=/C:/Users/10391/AppData/Local/Continuum/anaconda3
 export PYSPARK_SUBMIT_ARGS='--master local[*]'

这条不知道有用没,如果环境变量填完重启还不管用可以试试,由于我这配的时候是交叉的步骤,最后成功了

2.刚开始这两句还是成功的,后来又有了这个问题,说是加两句 import findspark 

findspark.init(),我刚开始安装conda install findspark这个包也没成功

后来改下channels就可以了https://www.cnblogs.com/yikemogutou/p/11396045.html

5.胜利的时刻

import os
import sys
spark_home = os.environ.get('SPARK_HOME', None)
if not spark_home:

    raise ValueError('SPARK_HOME environment variable is not set')
sys.path.insert(0, os.path.join(spark_home, 'python'))
sys.path.insert(0, os.path.join(spark_home, 'python/lib/py4j-0.10.4-src.zip'))
comm=os.path.join(spark_home, 'python/lib/py4j-0.10.4-src.zip')
print ('start spark....',comm)
exec(open(os.path.join(spark_home, 'python/pyspark/shell.py')).read())

留下激动的泪水 

这一句也终于成功了,检验成不成功就是看.count(),之前一到这就有问题,爆那一大串问题

绝对路径还是相对路径都可以了

之前也想过是C盘要改成file才可以吗,那会真是怎么着都不行,现在怎么都行了,开心撒花

最最最感谢的文章https://www.cnblogs.com/jackchen-Net/p/6667205.html

环境变量配置完不行的话也可重启试试

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值