Spark基础篇(三) - 创建RDD的前提(先创建SparkContext、SparkConf)

本文主要介绍了Spark编程前需要创建SparkContext及其重要性,详细讲解了SparkConf的用途和设置,以及在不同环境下的最佳实践。同时,提到了在IDEA中构建Spark应用程序的方法,强调了Spark UI中参数调优的重要性,特别是类路径配置在Spark 1.x与2.x版本的区别。最后,给出了一些关于Spark应用的思考题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、RDD五大特性回顾

二、创建Spark应用程序前需要创建SparkContext

三、使用idea构建SparkContext

四、一些思考题

一、RDD五大特性回顾

面试相关:
1、RDD是什么?为什么是分布式?为什么是弹性?
谈一下你对RDD的理解?结合RDD.scala进行理解;RDD五大特性与源码中的方法对应。

RDD是一个抽象类,它是没有办法直接使用的,只能通过子类访问;以jdbcRDD来看,通过jdbcRDD去访问数据,hadoopRDD:通过recorderreader去获取hdfs上的split,一个文件先拿到split,通过key-value把值取出来。

二、创建Spark应用程序前需要创建SparkContext

  • The first thing a Spark program must do is to create a SparkContext object, which tells Spark how to access a cluster. To create a SparkContext you first need to build a SparkConf object that contains information about your application.

1)、常用的context有哪些?

ServletContext
StrutsContext
jbpmCOntext(工作流中的上下文)
SpringContext			---> SpringBoot

如何理解Context?

  • context是一个框,可以理解为它是一个容器,我们使用spark的时候首先需要构建一个SparkContext.

2)、SparkContext的作用: 告诉Spark如何去连接集群(tell Spark how to access cluster)

3)、创建SparkContext前需要创建SparkConf对象(包含一些程序信息,application name、core、memory)

2.1、官网对于SparkConf的描述

  • 网址:http://spark.apache.org/docs/latest/api/scala/index.html#org.apache.spark.SparkConf

1、SparkConf用key-value键值对的方式来设置Spark参数的;

2、通过new SparkConf的方式来new出来sparkconf对象ÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值