spark学习代码笔记和问题解决01:spark core

本文档详细介绍了Spark Core中的RDD创建、转换和行动操作,包括map、filter、flatMap、sample等,并提供了丰富的代码示例。此外,还涵盖了RDD的持久化、分区策略、键值对数据处理、Spark程序提交、依赖关系和累加器等内容。最后,列举了Spark使用过程中遇到的问题及其解决方案,如SecureCRT终端的退格键问题、Kafka启动错误等。
摘要由CSDN通过智能技术生成

代码

RDD创建

1、sc.parallelize(seq)  把seq这个数据并行化分片到节点

val a = sc.parallelize(List("a","b","c"))

2、sc.makeRDD(seq)      把seq这个数据并行化分片到节点,他的实现就是parallelize

val aaa = sc.makeRDD(List("d","e","f"))

3、sc.makeRDD(seq[(T,seq)]  这种方式可以指定RDD的存放位置

val aa = sc.makeRDD(List((1,List("a","b","c")),(2,List("d","e","f"))))

 

(RDD中的操作:转换,行动)

RDD转换

map(func):将函数应用于RDD的每一元素,并返回一个新的RDD

val sourceRdd = sc.makeRDD(1 to 10)

sourceRdd.map(_ + 2)

res0.collect

 

filter(func):通过提供的产生boolean条件的表达式来返回符合结果为True新的RDD

val filter = sc.makeRDD(Array("aa1","bb1","aa2","cc3"))

filter.filter(_.startsWith("aa")).collect

 

flatMap(func):将函数应用于RDD中的每一项,对于每一项都产生一个集合,并将集合中的元素压扁成一个集合

val flat = sc.makeRDD(1 to 3)

flat.flatMap((1 to _)).collect

 

mapPartitions(func):将函数应用于RDD的每一个分区,每一个分区运行一次,函数需要能够接受Iterator类型,然后返回Iterator。

val person = sc.makeRDD(List(("a","female"),("b","male"),("c","female")))

def partitionsFun(iter: Iterator[(String,String)]):Iterator[String] = {

  var woman = List[String]()

  while(iter.hasNext){

val next = iter.next()

next match {

  case (_,"female") => woman = next._1 :: woman

  case _=>

}

}

woman.iterator

}

person.mapPartitions(partitionsFun).collect

 

mapPartitionsWithIndex(func):将函数应用于RDD中的每一个分区,每一个分区运行一次,函数能够接受 一个分区的索引值 和一个代表分区内所有数据的Iterator类型,需要返回Iterator类型。

val person = sc.makeRDD(List(("a","female"),("b","male"),("c","female")))

def partitionsFun(index: Int ,iter: Iterator[(String,String)]):Iterator[String] = {

  var woman = List[String]()

  while(iter.hasNext){

val next = iter.next()

next match {

  case (name,"female") => woman = "[" + index.toString + "]" + name :: woman

  case _=>

}

}

woman.iterator

}

person.mapPartitions(partitionsFun).collect

 

sample(withReplacement, fraction, seed):RDD中移seed为种子返回大致上有fraction比例个数据样本RDDwithReplacement表示是否采用放回式抽样。

val sample = sc.makeRDD(1 to 100)

sample.sample(false,0.1,4).collect

 

union(otherDataset):将两个RDD中的元素进行合并,返回一个新的RDD(合并元素不去重)

val a = sc.makeRDD(1 to 10)

sc.makeRDD(5 to 15).union(a).collect

 

intersection(otherDataset):将两个RDD做交集,返回一个新的RDD

 

distinct([numTask]):去重

 

partitionBy():根据设置的分区器重新将RDD进行分区,返回新的RDD

val hash = sc.makeRDD(List((1,"a"),(2,"b"),(3,"c")))

hash.partitionBy(new org.apache.spark.HashPartitioner(2))

res8.partitions.size

res8.partitioner

 

reduceByKey(func):根据Key值将相同Key的元组的值用func进行计算,返回新的RDD

val reduce = sc.makeRDD(List(("female"

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值