Flink DataSet API之partition

基本介绍

Rebalance:对数据集进行再平衡,重分区,消除数据倾斜

Hash-Partition:根据指定key的哈希值对数据集进行分区,某一key集中时还是会出现数据倾斜 (partitionByHash())

Range-Partition:根据指定的key对数据集进行范围分区   (.partitionByRange()) 

Custom Partitioning:类似于DStream partition分区规则(自定义分区需要实现Partitioner接口,partitionCustom(partitioner, "someKey") 或者 partitionCustom(partitioner, 0)) 

Hash-Partition、Range-Partition 使用demo

import org.apache.flink.api.scala.ExecutionEnvironment

import scala.collection.mutable.ListBuffer

object BatchDemoHashRangePartitionScala {
  def main(args: Array[String]): Unit = {
    val env = ExecutionEnvironment.getExecutionEnvironment
    import org.apache.flink.api.scala._
    val data1 = ListBuffer[Tuple2[Int,String]]()
    data1.append((1,"hello1"))
    data1.append((2,"hello2"))
    data1.append((2,"hello3"))
    data1.append((3,"hello4"))
    data1.append((3,"hello5"))
    data1.append((3,"hello6"))
    data1.append((4,"hello7"))
    data1.append((4,"hello8"))
    data1.append((4,"hello9"))
    data1.append((4,"hello10"))
    data1.append((5,"hello11"))
    data1.append((5,"hello12"))
    data1.append((5,"hello13"))
    data1.append((5,"hello14"))
    data1.append((5,"hello15"))
    data1.append((6,"hello16"))
    data1.append((6,"hello17"))
    data1.append((6,"hello18"))
    data1.append((6,"hello19"))
    data1.append((6,"hello20"))
    data1.append((6,"hello21"))
    val text = env.fromCollection(data1)
    text.partitionByHash(0).mapPartition(it=>{
      while (it.hasNext){
        val tu = it.next()
        println("当前线程id:"+Thread.currentThread().getId+","+tu)
      }
      it
    }).print()
    println("=====================================")
    text.partitionByRange(0).mapPartition(it=>{
      while (it.hasNext){
        val tu = it.next()
        println("当前线程id:"+Thread.currentThread().getId+","+tu)
      }
      it
    }).print()
  }
}

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用中提到的DataSet是指Flink中的数据集,它是Flink中的一种数据结构,用于表示并处理大规模的数据集。FlinkDataSet API提供了一套丰富的操作符,可以对数据集进行转换、过滤、聚合等各种操作。 引用中的newRanks是指在迭代计算中,根据输入的邻接表和当前的排名值进行计算得到的新的排名值的数据集。在图计算中,通常会使用迭代算法来计算各个节点的排名值,每次迭代都会根据当前的排名值和邻接表进行计算,得到新的排名值。 引用中的result是指通过在两个数据集上进行连接操作后得到的结果数据集。在Flink中,可以使用join操作符将两个数据集按照指定的键进行连接,生成一个包含两个数据集中共有键的结果数据集。 因此,FlinkDataSet是用于表示和处理大规模数据集的数据结构,可以通过各种操作符对数据集进行转换和处理。在图计算中,可以使用DataSet进行迭代计算,并使用join操作符进行数据集之间的连接操作。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [flink dataset join笔记](https://blog.csdn.net/weixin_30391889/article/details/114753509)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值