Python Spark的介绍与安装(1) 学习笔记八

本文档详细介绍了如何安装Scala和Spark,并启动pyspark交互式界面。首先,通过Scala官网下载并安装Scala 2.11.6,接着配置环境变量。然后,从Spark下载页面获取与Hadoop 2.6兼容的Spark 2.0.0,同样进行解压和环境变量设置。最后,启动pyspark并调整显示信息级别为WARN。
摘要由CSDN通过智能技术生成

我们将介绍Spark2.0的安装,以及在pyspark“终端”程序界面执行Python Spark程序于本机、Hadoop YARN-client与Spark atand Alone模式。
在Spark官网中,可以看到Spark的Cluster模式架构图,网址http://spark.apache.org/docs/latest/cluster-overview.html
在这里插入图片描述
Spark的Cluster模式架构图
·Driver Program就是程序员设计的Spark程序,在Spark程序中必须定义SparkContext,它是Spark应用程序入口。
·SparkContext通过Cluster Manager管理整个集群,集群中包含多个Worker Node,在每一个Worker Node中都有Executor负责执行任务。

SparkContext通过Cluster Manager管理整个集群Cluster的好处是:所设计的Spark程序可以在不同的Cluster模式下运行。
Cluster Manager可以在下列模式下运行
·本地运行(Local Machine)
·Spark Stand alone Cluster
·Hadoop YARN
·云端

8.1 Scala的介绍与安装

因为Spark本身是Scala开发的,所以必须先安装Scala语言,Scala 可译为Java byte code字节码,也就是说scala可以在JVM(java Virtual Machine)运行,具备跨平台能力。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值