PySpark | PySpark库 | 本机开发环境搭建 | 分布式代码执行分析


传送门:


一、PySpark库

1.框架与类库
  • 类库:—堆别人写好的代码,你可以导入进行使用。PySpark就是一个类库。
  • 框架:可以独立运行,并提供编程结构的—种软件产品。Spark就是一个独立的框架。
2.什么是PySpark

  PySpark是可以在Python代码中:import pyspark来进行调用的。PySpark 是Spark官方提供的一个Python类库,内置了完全的Spark API,可以通过PySpark类库来编写Spark应用程序,并将其提交到Spark集群中运行。
PySpark类库和标准Spark框架对比:
在这里插入图片描述

3. PySpark安装

  在合适虚拟环境下,执行如下命令即可安装:

(shayun)C:\Users\admin>pip install pyspark -i https://pypi.tuna.tsinghua.edu.cn/simple

二、本机开发环境搭建

1.本机PySpark环境配置(Window系统下)
  1. 将课程资料中提供的: hadoop-3.3.0 文件, 复制到一个地方, 比如E:\softs\hadoop-3.0.0
  2. 将文件夹内bin内的hadoop.dll复制到: C:\Windows\System32里面去
  3. 配置HADOOP_HOME环境变量指向 hadoop-3.3.0文件夹的路径, 如下图
    在这里插入图片描述

配置这些的原因是:
hadoop设计用于linux运行, 我们写spark的时候,在windows上开发不可避免的会用到部分hadoop功能。为了避免在windows上报错, 我们给windows打补丁。

2.Pycharm本地与远程解释器配置

配置本地解释器
在这里插入图片描述
在这里插入图片描述
配置远程SSH Linux解释器

  1. 设置远程SSH python pySpark 环境
    在这里插入图片描述
  2. 添加新的远程连接
    在这里插入图片描述
  3. 设置虚拟机Python环境路径
    在这里插入图片描述
  4. 将Windows文件夹与Linux文件夹进行同步
    在这里插入图片描述
3.应用入口:SparkContext

  Spark Application程序入口为:SparkContext,任何一个应用首先需要构建SparkContext对象,如下两步构建:

  • 4
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

幼稚的人呐

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值