spark开发环境——本地安装spark2.x及启动

利用python开发spark项目需要在本地安装spark

一 本地安装

1.下载http://spark.apache.org/downloads.html

选择适合本机的hadoop版本,点击链接下载


2.点击链接完成下载


3. 解压文件



4.配置环境变量

新增SPARK_HOME=D:\spark\spark-2.2.0-bin-hadoop2.6 



在系统变量Path中追加 %SPARK_HOME%/bin;



二 在本地启动spark

1.在cmd中输入D:\spark\hadoop-2.6.5\bin\winutils.exe chmod 777 D:\tmp\hive(需要先新建一个文件夹D:\tmp\hive


2.运行spark-shell。注意不要在C盘,因为spark-shell运行会产生一些临时文件,在D盘spark中新建一个spark-shell文件,从cmd中进入此文件夹后再运行spark-shell即可。

3.进入spark-shell后输入spark.conf.get("spark.sql.catalogImplementation"),然后即可在交互环境下进行代码测试。

sparkshell文件夹中会出现


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值