RDD SparkSubmit分区个数详解 源码解读

RDD分区个数   

1在创建RDD时可以指定分区数量  

    sc.textFile("hdfs:linux01:9000/data",5)  这里的5就是指定的分区数量

2在启动Spark-shell时指定cores ,也是分区数量

/opt/apps/spark-3.0.0/bin/spark-shell --master spark://linux02:7077 --executor-memory 1g --total-executor-cores 6

如果在创建RDD时没有指定分区数量那么它将使用默认的分区数量最大为6

 

一般情况下根据文件block块,一个block块对应一个分区

但是也有特殊情况比如一个文件相比其他文件比较大这时将会有多个分区来处理他

让我们看下面代码

scala> val lines = sc.textFile("hdfs://linux01:9000/data")
lines: org.apache.spark.rdd.RDD[String] = hdfs://linux01:9000/data MapPartitionsRDD[1] at textFile at <console>:24

scala> lines.partitions.length
res0: Int = 3

scala> val lines = sc.textFile("hdfs://linux01:9000/data",2)
lines: org.apache.spark.r
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值