HDFS的读写限流方案

我们的集群有的时候一跑几个大的任务,就会把机房网络带宽瞬间打满,导致线上部分服务抖动.所以我们就想到了在HDFS对普通读写的限流.所以说,本文可以实质上说是一篇总结报告,阐述了方案的设想,实现以及结果.

 

在hadoop自身内部,就有一些限流操作:

1、Blancer平衡数据限流

2、FsImage镜像文件上传下载数据传输流

3、VolumeScanner: 磁盘扫描的数据读操作

 

一 DataTransderThrottler

对数据传输限制流量的一个类,他所指定的带宽大小或者速率被多个线程共享。

他的核心思想就是:通过单位时间内限制的指定字节数的方式来控制平均传输速度。比如如果发现IO传输速度过快,超过规定时间内的带宽限定字节数,则会进行等待操作,等待下一个允许带宽传输的周期到来

 

  //设置一个期间或者周期,比如5s内只允许发送1024字节,这里的周期就是5s

  private final long period;         //period over which bw is imposed

  private final long periodExtension; // Max period over which bw accumulates.

  //周期内能够被发送的字节数量,1024字节就是允许发送的字节数

  private long bytesPerPeriod// total number of bytes can be sent ineach period

  //当前周期起始点

  private long curPeriodStart// current period starting time

  //当前能够发送的剩余字节数,比如周期前2s发送了500字节,那么还剩余524字节

  private long curReserve;      // remaining bytes can be sent in theperiod

  //和上面相对应,这个是已经使用到字节数,前2s发送了500字节,那么这500字节就是已经使用了的字节数

  private long bytesAlreadyUsed;

 

  public synchronized void throttle(long numOfBytes, Canceler canceler) {

    if ( numOfBytes <= 0 ) {

      return;

    }

    //当前的可传输的字节数减去当前发送/接收字节数

    curReserve -= numOfBytes;

    //当前字节使用量

    bytesAlreadyUsed += numOfBytes;

 

    while (curReserve <= 0) {

      //如果设置了canceler对象,则不会进行限流操作

      if (canceler != null && canceler.isCancelled()) {

        return;

      }

      long now = monotonicNow();

      long curPeriodEnd = curPeriodStart + period;

      // 如果当前时间还在本周期时间内的话,则必须等待此周期的结束, 

      // 重新获取新的可传输字节量 

      if ( now < curPeriodEnd ) {

        // Wait for next period so that curReservecan be increased.

        try {

          wait( curPeriodEnd - now );

        } catch (InterruptedException e) {

          // Abort throttle and reset interruptedstatus to make sure other

          // interrupt handling higher in the callstack executes.

          Thread.currentThread().interrupt();

          break;

        }

      } else if ( now < (curPeriodStart + periodExtension)) {

        // 如果当前时间已经超过此周期的时间且不大于最大周期间隔,则增加可接受字节数, 

        // 并更新周期起始时间为前一周期的末尾时间 

        curPeriodStart = curPeriodEnd;

        curReserve += bytesPerPeriod;

      } else {

        // discard the prev period.Throttler might not have

        // been used for a long time.

         // 如果当前时间超过curPeriodStart + periodExtension,则表示 

          // 已经长时间没有使用Throttler,重新重置时间 

        curPeriodStart = now;

        curReserve = bytesPerPeriod - bytesAlreadyUsed;

      }

    }

    //传输结束,当前字节使用量进行移除 

    bytesAlreadyUsed -= numOfBytes;

  }

}

所以在这里我们知道,影响带宽速率指标 不仅和带宽速度上限值 有关系,还和周期有关系,如果周期设置小了,那么发生等待的次数会相对变多,那么带宽平均速度回更低。


缺点:

1、周期默认是500,代码写死了,弄成可配置的更好

2、上述场景都不是在job层面,并没有在正常的readBlock和writeBlock操作做这样的限制,这样的话,job的数据传输,将会用光已有宽带。


  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HDFSHadoop Distributed File System)是Hadoop生态系统中的一部分,它是一个可伸缩的分布式文件系统,可以在大型集群中存储和处理超大型数据集。下面是HDFS读写流程和原理: 1. 写入流程 (1)客户端向NameNode请求写入文件,NameNode返回一个DataNode列表,客户端接收到后与DataNode进行数据通信。 (2)客户端将数据划分为一个个数据块,并与DataNode建立连接,将数据块写入DataNode。 (3)DataNode接收到数据块后,先将数据写入本地磁盘,然后将数据块复制到其他DataNode上,以实现数据备份。 (4)客户端在写入完数据后,向NameNode发送文件元数据,即文件名、数据块ID、数据块所在的DataNode等信息,NameNode将这些信息保存在内存中,并更新元数据信息。 2. 读取流程 (1)客户端向NameNode请求读取文件,NameNode返回一个DataNode列表和对应的数据块位置信息。 (2)客户端与DataNode建立连接,请求数据块,DataNode将数据块返回给客户端。 (3)客户端读取完所有数据块后,将数据块组合成完整的文件。 HDFS的主要原理是数据分片和复制。HDFS将大文件划分为多个数据块,每个数据块默认大小为128MB,每个数据块会复制到多个DataNode上,以实现数据备份和容错。NameNode负责管理文件系统的元数据,包括文件名、文件目录、数据块位置等信息,而DataNode则负责数据块的存储和读写。这种分布式存储方式可以实现高可用性和高可靠性,并且可以通过增加DataNode数量来提高存储和读写性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值