Spark大数据处理学习笔记(3.1)掌握RDD的创建

文章目录

一、准备工作
1.1 准备文件
1.1.1 准备本地系统文件
在/home目录里创建test.txt

单词用空格分隔

1.1.2 启动HDFS服务
执行命令:start-dfs.sh

1.1.3 上传文件到HDFS
将test.txt上传到HDFS的/park目录里

查看文件内容

1.2 启动Spark Shell
1.2.1 启动Spark服务
执行命令:start-all.sh

1.2.2 启动Spark Shell
执行命令:spark-shell(既可以读取本地文件,也可以读取HDFS文件)

查看Spark Shell的WebUI界面

查看执行器

二、创建RDD
2.1 通过并行集合创建RDD
Spark可以通过并行集合创建RDD。即从一个已经存在的集合、数组上,通过SparkContext对象调用parallelize()或makeRDD()方法创建RDD。
2.1.1 利用parallelize()方法创建RDD
执行命令:val rdd = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7, 8))

执行命令:val rdd = sc.parallelize(Array(100, 300, 200, 600, 500, 900))

说明:不能基于Map、Tuple和Set来创建RDD
2.1.2 利用makeRDD()方法创建RDD
执行命令:val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8))

执行命令:rdd.collect(),收集rdd数据进行显示

思考题:取出rdd中的偶数

2.2 从外部存储创建RDD
2.2.1 从文件系统加载数据创建RDD
执行命令:val rdd = sc.textFile(“file:///home/test.txt”)

注意:访问本地文件,必须加file://前缀,否则系统会认为是访问hdfs://master:9000/home/test.txt,从而会报错。
执行命令:val lines = rdd.collec,查看RDD中的内容,保存到常量lines

执行命令:lines.foreach(println)(利用foreach遍历算子)

课堂练习:给输出数据添加行号
利用for循环来实现

利用foreach遍历算子来实现

2.2.2 从HDFS中加载数据创建RDD
执行命令:val rdd = sc.textFile(“hdfs://master:9000/park/test.txt”)

执行命令:val lines = rdd.collect,查看RDD中的内容

获取包含spark的行,执行命令:val sparkLines = rdd.filter(_.contains(“spark”))

利用遍历算子显示sparkLines内容

三、读取文件的问题
3.1 以集群方式启动Spark Shell
执行命令:spark-shell --master spark://master:7077

3.1.1 读取本地文件
执行命令:val rdd = sc.textFile(“file:///home/test.txt”)

执行命令: rdd.collect,报错 - Input path does not exist: hdfs://master:9000/home/test.txt
结论:集群模式启动的Spark Shell不能读取本地文件
3.1.2 读取HDFS文件
执行命令:val rdd = sc.textFile(“hdfs://master:9000/park/test.txt”)

执行命令:val rdd = sc.textFile(“/park/test.txt”)

结论:默认就是访问HDFS上的文件,因此hdfs://master:9000前缀可以不写
3.2 以本地模式启动Spark Shell
执行命令:spark-shell --master local[*]

3.2.1 读取本地文件
执行命令:val rdd = sc.textFile(“file:///home/test.txt”)

执行命令:val rdd = sc.textFile(“/home/test.txt”)

结论:本地模式启动的Spark Shell,默认读取的依然是HDFS文件,要访问本地文件,必须加file://前缀
3.2.2 访问HDFS文件
执行命令:val rdd = sc.textFile(“hdfs://master:9000/park/test.txt”)

执行命令:val rdd = sc.textFile(“/park/test.txt”)

结论:默认就是访问HDFS文件,因此加不加hdfs://master:9000前缀都是一样的效果文件。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以为您介绍关于使用Spark RDD进行快速数据处理的相关内容。 Spark是一个用于大规模数据处理的快速、通用的计算引擎,其提供了一个分布式的数据处理框架,可以在一个集群中进行并行计算。其中,RDD(Resilient Distributed Datasets)是Spark中最核心的概念之一,它是一种可并行处理的、容错的数据结构,可以将数据存储在集群中的多个节点上,实现数据的快速处理。 使用Spark RDD进行快速数据处理的步骤如下: 1. 创建RDD:可以通过SparkContext对象创建RDD,支持从本地文件系统、HDFS、HBase等数据源读取数据。 2. 转换操作:通过一系列的转换操作(如map、filter、reduce等),对RDD中的数据进行处理,生成新的RDD。 3. 操作执行:通过执行操作(如count、collect等),触发对RDD中的数据进行计算。 4. 缓存机制:Spark支持对RDD进行缓存,提高重复计算的效率。 使用Spark RDD进行快速数据处理的优点包括: 1. 高效性:Spark RDD支持并行计算,可以在多个节点上同时进行数据处理,大大提高了数据处理的效率。 2. 可扩展性:Spark可以在多个节点上进行分布式计算,可以轻松处理大规模数据集。 3. 容错性:Spark RDD支持数据的容错,当某一节点出现故障时,数据可以自动恢复。 希望这些内容能够帮助您了解关于使用Spark RDD进行快速数据处理的相关知识。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值