Spark RDD进行艺术家数据集清洗

1 artist_data.txt 文件中包含艺术家的ID 和名字,它们用制表符“\t”分割,但是尝试简单的把文件解析成二元组(Int, String) 会出错,用spark transformation 算子简单处理数据,过滤掉会产生异常的数据,返回元组(Int, String),并在结果RDD 中查找到ID 为2093760艺术家的名字。

原始数据的模样

这里写图片描述

关键代码

val conf = new SparkConf().setMaster("local[4]").setAppName("work01") //设置APP 的name,设置Local 模式的CPU资源
    val sc = new SparkContext(conf)
    val root = work01.getClass.getResource("/")
    val rdd = sc.textFile(root + "artist_data.txt")
    //rdd getClass返回class org.apache.spark.rdd.MapPartitionsRDD
    //    map函数会对每一条输入进行指定的操作,然后为每一条输入返回一个对象;而flatMap函数则是返回所有对象的集合,而且它摒弃了那些值
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以为您介绍关于使用Spark RDD进行快速数据处理的相关内容。 Spark是一个用于大规模数据处理的快速、通用的计算引擎,其提供了一个分布式的数据处理框架,可以在一个集群中进行并行计算。其中,RDD(Resilient Distributed Datasets)是Spark中最核心的概念之一,它是一种可并行处理的、容错的数据结构,可以将数据存储在集群中的多个节点上,实现数据的快速处理。 使用Spark RDD进行快速数据处理的步骤如下: 1. 创建RDD:可以通过SparkContext对象创建RDD,支持从本地文件系统、HDFS、HBase等数据源读取数据。 2. 转换操作:通过一系列的转换操作(如map、filter、reduce等),对RDD中的数据进行处理,生成新的RDD。 3. 操作执行:通过执行操作(如count、collect等),触发对RDD中的数据进行计算。 4. 缓存机制:Spark支持对RDD进行缓存,提高重复计算的效率。 使用Spark RDD进行快速数据处理的优点包括: 1. 高效性:Spark RDD支持并行计算,可以在多个节点上同时进行数据处理,大大提高了数据处理的效率。 2. 可扩展性:Spark可以在多个节点上进行分布式计算,可以轻松处理大规模数据集。 3. 容错性:Spark RDD支持数据的容错,当某一节点出现故障时,数据可以自动恢复。 希望这些内容能够帮助您了解关于使用Spark RDD进行快速数据处理的相关知识。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值