网络流-基本原理

1) 网络
•G是一个简单有向图,G=(V,E),V={1,2,…,n}。
•在V中指定一个顶点s,称为和另一个顶点t,称为
•有向图G的每一条边(v,w)∈E,对应有一个值cap(v,w)≥0,称为边的容量

•这样的有向图G称作一个网络

2) 网络流
•网络上的是定义在网络的边集合E上的一个非负函数flow={flow(v,w)},并称flow(v,w)为边(v,w)上的流量
3) 可行流
•满足下述条件的流flow称为可行流
(3.1)容量约束:对每一条边(v,w)∈E,0≤flow(v,w)≤cap(v,w)。
(3.2)平衡约束:
•对于中间顶点:流出量=流入量。
•即对每个v∈V(v≠s,t)有:顶点v的流出量-顶点v的流入量=0,即
•对于源s:s的流出量-s的流入量=源的净输出量f,即
•对于汇t:t的流入量-t的流出量的=汇的净输入量f,即
•式中f 称为这个可行流的流量,即源的净输出量(或汇的净输入量)。
•可行流总是存在的。
•例如,让所有边的流量flow(v,w)=0,就得到一个其流量f=0的可行流(称为0流)。
7 ) 残流网络
•对于给定的一个流网络G及其上的一个流flow,网络G关于流flow的残流网络G*与G有相同的顶点集V,而网络G中的每一条边对应于G*中的1条边或2条边。
•设(v,w)是G的一条边。
•当flow(v,w)>0时,(w,v)是G*中的一条边,该边的容量为cap*(w,v)=flow(v,w);
•当flow(v,w)<cap(v,w)时,(v,w)是G*中的一条边,该边的容量为
•cap*(v,w)=cap(v,w)-flow(v,w)。
•按照残流网络的定义,当原网络G中的边(v,w)是一条零流边时,残流网络G*中有唯一的一条边(v,w)与之对应,且该边的容量为cap(v,w)。
•当原网络G中的边(v,w)是一条饱和边时,残流网络G*中有唯一的一条边(w,v)与之对应,且该边的容量为cap(v,w)。
•当原网络G中的边(v,w)是一条弱流边时,残流网络G*中有2条边(v,w)和(w,v)与之对应,这2条边的容量分别为cap(v,w) -flow(v,w)和flow(v,w)。
•残流网络是设计与网络流有关算法的重要工具。


Bi-LSTM(双向长短期记忆网络)是一种适用于时序数据建模的算法,常用于自然语言处理任务中对上下文信息进行建模[^1]。Bi-LSTM由前向LSTM和后向LSTM组合而成,通过同时考虑过去和未来的上下文信息来更好地理解文本数据。 LSTM(长短期记忆网络)是一种特殊的循环神经网络(RNN),它通过使用门控机制来解决传统RNN中的梯度消失和梯度爆炸问题。LSTM通过三个门控单元(输入门、遗忘门和输出门)来控制信息的动,从而能够有效地捕捉长距离依赖关系。 Bi-LSTM通过将前向LSTM和后向LSTM连接在一起,使得模型能够同时考虑过去和未来的上下文信息。前向LSTM从序列的起始位置开始处理输入数据,而后向LSTM从序列的末尾位置开始处理输入数据。两个LSTM的输出会被合并在一起,形成一个综合的表示,该表示能够更好地捕捉序列中的上下文信息。 在自然语言处理任务中,Bi-LSTM常被用来进行命名实体识别(NER)任务。NER是指从文本中识别出具有特定意义的实体,如人名、地名、组织机构等。Bi-LSTM能够通过学习上下文信息来更好地识别出文本中的实体,并且由于其双向性质,能够更好地处理上下文信息的依赖关系。 总结来说,Bi-LSTM是一种适用于时序数据建模的算法,通过前向LSTM和后向LSTM的组合来同时考虑过去和未来的上下文信息。在自然语言处理任务中,Bi-LSTM常被用来进行命名实体识别任务,能够更好地捕捉文本中的上下文信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

水木流年追梦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值