Stanford CS 144 Note 24 - Principle rate guarantees

FIFO queue

如果有多个flow经过这个queue,

传输速率最高的flow就相当于receive highest usage of this output link

使得其他的flow只能通过这个link发送相对少的多的packets

虽然FIFO queue非常简单,but encourage bad behavior

 如图所示

从上到下三个flow,越靠近上的flow传输rate越高

它send out的最终顺序就会是123456

对于一些需要urgent control traffic情况来说不太好 (video traffic)

FIFO does not have any way to distinguish important packets(first arrived one is the most important!)

Strict priorities

 到达的packet的IP header中有ToS section包含了这个packet是否是high priority

比如说我们认为video traffic is more important than emails,video的priority就高于email

或者一些网站中,gold customer的priority > silver customers

在output的出口有一个scheduler,当且仅当high priority queue为empty时,它才允许packets from low priority queue离开

high priority packets不会看到low priority traffic

缺点:仅在high priority需求较小的时候使用,因为不希望starve out lower priority traffic,换句话说,我们不希望completely hog the link

Weighted Priorities

不像strict priority一样严格,而是以一定的比例传输不同priority traffic

扩展到n个flow

当到达的packet都有相同的长度,它们会visit all queues in turn

我们把经过所有queue称作一个round

但事实上每个packet的长度都不同 (Possibly from 64bytes to 1500bytes)

我们需要考虑到long packets crowded out short ones

Weighted Fair Queueing

特性:weight usage + weighted fairness + rate guarantees

 单位时间为round(遍历过每个queue)

第一个问题 如果每个queue serve bit by bit,which round will they finish

假设这个packet的头部是处在round Sk,等到达尾部后处在round Tk (queue service start/end)

Tk = Sk + L/w1

而且 Tk = S(k-1)

 然后在出口的scheduler会选择有最小的Fk的packet

先计算每个arriving packet的Fk,然后output那个Fk最小的

 

从weighted queueing中我们可以得到

如果是bit by bit的queue

它的rate Ri = (Wi/W)*R(其中W和R都是所有queue的w和r求和)

如果是packet by packet的方式 (e.g. weighted fair queue) 

和bit-by-bit的差值不会大于Lmax/R (即最长的packet)

虽然p by p的方式会和b by b的有一定variance,但measuring from a long period of time是差不多的

所以也可以用rate Ri = (Wi/W)*R的公式

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Stanford CoreNLP是一个开源的自然语言处理工具包,提供了一系列的NLP工具和库,用于文本分析、信息提取、语义标注、句法分析等任务。而stanford-corenlp-full-2015-12-09则是这个工具包的一个特定版本。 stanford-corenlp-full-2015-12-09包含了所有Stanford CoreNLP工具和库的完整集合。它包括了多种NLP模型,用于处理不同的语言和任务。这个版本发布于2015年12月09日,并且提供了丰富的功能和性能优化。它支持英语、中文等多种语言的文本处理,并且可以用于词性标注、命名实体识别、关系抽取、情感分析、依存句法分析等多种任务。 使用stanford-corenlp-full-2015-12-09,我们可以通过简单的调用API接口来使用各种NLP功能。它可以处理单个文本、文本集合甚至是大规模的文本数据。我们可以提取文本的关键信息,如实体识别、情感分析和关键词提取等。此外,它还提供了丰富的语言处理技术,如分词、词性标注、命名实体识别和依存句法分析,可以帮助研究人员和开发者进行更深入的文本分析和语义理解。 总而言之,stanford-corenlp-full-2015-12-09是一个功能强大且广泛使用的NLP工具包,提供了多种NLP任务的解决方案。它可以帮助使用者快速准确地分析文本,提取有用的信息,并为后续的文本处理和语义分析任务提供基础支持。 ### 回答2: Stanford CoreNLP是斯坦福大学开发的一款自然语言处理工具包,其完整版2015-12-09是指CoreNLP的一个特定版本,发布于2015年12月9号。Stanford CoreNLP提供了一系列强大的功能,包括分词、词性标注、命名实体识别、句法分析、依存关系分析等。这些功能能够帮助用户对文本进行深入的语言理解和分析。 Stanford CoreNLP使用Java编写,可以通过命令行或API接口进行使用。它支持多种语言,包括英语、中文、阿拉伯语等。用户可以通过简单的调用相应的功能模块,实现对文本的处理和分析。 在中文处理方面,Stanford CoreNLP通过使用中文分词器以及中文词性标注器,能够将中文文本进行分词和词性标注。此外,它还能够进行中文的命名实体识别,例如识别人名、地名、时间等实体。同时,Stanford CoreNLP还提供了句法分析和依存关系分析功能,可以帮助用户理解句子的结构和句法关系。 总之,Stanford CoreNLP完整版2015-12-09是一款功能强大的自然语言处理工具,能够帮助用户对文本进行深入的语言分析和理解。它具有广泛的应用领域,包括信息提取、机器翻译、文本分类等。用户可以使用它来处理中文文本,并通过其提供的多种功能模块对文本进行处理和分析。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值