linux 3.10 网桥 编译,Linux 3.10 kernel bridge 转发逻辑

前分析过linux kernel 2.6.32的bridge转发逻辑,下面分析一下linux kernel 3.10的bridge转发逻辑。这样正是CentOS 5和CentOS 7对应的内核。3.10 kernel中bridge逻辑的最大改变就是增加了vlan处理逻辑以及brdige入口函数的设置。

1.netdev_rx_handler_register

在分析之前首先要介绍一个重要函数:netdev_rx_handler_register,这个函数是2.6内核所没有的。

netdev_rx_handler_register

/*

* dev: 要注册接收函数的dev

* rx_handler: 要注册的接收函数

* rx_handler_data: 指向rx_handler_data使用的数据

*/

intnetdev_rx_handler_register(structnet_device *dev,

rx_handler_func_t *rx_handler,

void*rx_handler_data){

ASSERT_RTNL();

if(dev->rx_handler)

return-EBUSY;

/* Note: rx_handler_data must be set before rx_handler */

rcu_assign_pointer(dev->rx_handler_data,rx_handler_data);

rcu_assign_pointer(dev->rx_handler,rx_handler);

return0;

}

这个函数可以给设备(net_device)注册接收函数,然后在__netif_receive_skb函数中根据接收skb的设备接口,再调用这个被注册的接收函数。比如为网桥下的接口注册br_handle_frame函数,为bonding接口注册bond_handle_frame函数。这相对于老式的网桥处理更灵活,有了这个机制也可以在模块中自行注册处理函数。比如3.10中的openvswitch(OpenvSwitch在3.10已经合入了内核)创建netdev vport的函数netdev_create。

netdev_create

staticstructvport *netdev_create(conststructvport_parms *parms)

{

structvport *vport;

/....../

err=netdev_rx_handler_register(netdev_vport->dev,netdev_frame_hook,vport);

/....../

}

这个函数在创建netdev vport时将设备的接收函数设置为netdev_frame_hook函数,这也是整个openvswitch的入口函数,如果查看OpenvSwitch的源码可以看到当安装于2.6内核时这里是替换掉bridge的br_handle_frame_hook函数,从而由bridge逻辑进入OpenvSwitch逻辑。

2. Bridge转发逻辑分析

还是先从netif_receive_skb函数分析,这个函数算是进入协议栈的入口。

netif_receive_skb

intnetif_receive_skb(structsk_buff *skb)

{

intret;

if(skb_defer_rx_timestamp(skb))

returnNET_RX_SUCCESS;

rcu_read_lock();

/*RPS逻辑处理,现在内核中使用了RPS机制, 将报文分散到各个cpu的接收队列中进行负载均衡处理*/

#ifdef CONFIG_RPS

if(static_key_false(&rps_needed)){

structrps_dev_flowvoidflow,*rflow= &voidflow;

intcpu=get_rps_cpu(skb->dev,skb,&rflow);

if(cpu>=0){

ret=enqueue_to_backlog(skb,cpu,&rflow->last_qtail);

rcu_read_unlock();

returnret;

}

}

#endif

ret=__netif_receive_skb(skb);

rcu_read_unlock();

returnret;

}

netif_receive_skb只是对数据包进行了RPS的处理,然后调用__netif_receive_skb。

__netif_receive_skb并没有其他多余的处理逻辑,主要调用 __netif_receive_skb_core,这个函数才真正相当于2.6内核的netif_receive_skb。以下代码省略了和bridge无关的逻辑。

__netif_receive_skb_core

staticint__netif_receive_skb_core(structsk_buff *skb,boolpfmemalloc)

{

structpacket_type *ptype,*pt_prev;

rx_handler_func_t *rx_handler;

structnet_device *orig_dev;

structnet_device *null_or_dev;

booldeliver_exact=false;

intret=NET_RX_DROP;

__be16type;

/*......*/

orig_dev=skb->dev;

skb_reset_network_header(skb);

pt_prev=NULL;

skb->skb_iif=skb->dev->ifindex;

/*ptype_all协议处理,tcpdump抓包就在这里*/

list_for_each_entry_rcu(ptype,&ptype_all,list){

if(!ptype->dev||ptype->dev==skb->dev){

if(pt_prev)

ret=deliver_skb(skb,pt_prev,orig_dev);

pt_prev=ptype;

}

}

/*调用接收设备的rx_handler*/

rx_handler=rcu_dereference(skb->dev->rx_handler);

if(rx_handler){

if(pt_prev){

ret=deliver_skb(skb,pt_prev,orig_dev);

pt_prev=NULL;

}

switch(rx_handler(&skb)){

caseRX_HANDLER_CONSUMED:

ret=NET_RX_SUCCESS;

gotoout;

caseRX_HANDLER_ANOTHER:

gotoanother_round;

caseRX_HANDLER_EXACT:

deliver_exact=true;

caseRX_HANDLER_PASS:

break;

default:

BUG();

}

}

/*根据 skb->protocol传递给上层协议*/

type=skb->protocol;

list_for_each_entry_rcu(ptype,&ptype_base[ntohs(type)&PTYPE_HASH_MASK],list){

if(ptype->type==type&&(ptype->dev==null_or_dev||ptype->dev==skb->dev||ptype->dev==orig_dev)){

if(pt_prev)

ret=deliver_skb(skb,pt_prev,orig_dev);

pt_prev=ptype;

}

}

if(pt_prev){

if(unlikely(skb_orphan_frags(skb,GFP_ATOMIC)))

gotodrop;

else

ret=pt_prev->func(skb,skb->dev,pt_prev,orig_dev);

}else{

drop:

atomic_long_inc(&skb->dev->rx_dropped);

kfree_skb(skb);

ret=NET_RX_DROP;

}

out:

returnret;

}

如果一个dev被添加到一个bridge(做为bridge的一个接口),的这个接口设备的rx_handler被设置为br_handle_frame函数,这是在br_add_if函数中设置的,而br_add_if (net/bridge/br_if.c)是在向网桥设备上添加接口时设置的。进入br_handle_frame也就进入了bridge的逻辑代码。

br_add_if

intbr_add_if(structnet_bridge *br,structnet_device *dev)

{

/*......*/

err=netdev_rx_handler_register(dev,br_handle_frame,p);

/*......*/

}

br_handle_frame

rx_handler_result_t br_handle_frame(structsk_buff **pskb)

{

structnet_bridge_port *p;structsk_buff *skb= *pskb;

constunsignedchar*dest=eth_hdr(skb)->h_dest;

br_should_route_hook_t *rhook;

if(unlikely(skb->pkt_type==PACKET_LOOPBACK))

returnRX_HANDLER_PASS;

if(!is_valid_ether_addr(eth_hdr(skb)->h_source))

gotodrop;

skb=skb_share_check(skb,GFP_ATOMIC);

if(!skb)

returnRX_HANDLER_CONSUMED;

/*获取dev对应的bridge port*/

p=br_port_get_rcu(skb->dev);

/*特殊目的mac地址的处理*/if(unlikely(is_link_local_ether_addr(dest))){

/*

* See IEEE 802.1D Table 7-10 Reserved addresses

*

* Assignment Value

* Bridge Group Address 01-80-C2-00-00-00

* (MAC Control) 802.3 01-80-C2-00-00-01

* (Link Aggregation) 802.3 01-80-C2-00-00-02

* 802.1X PAE address 01-80-C2-00-00-03

*

* 802.1AB LLDP 01-80-C2-00-00-0E

*

* Others reserved for future standardization

*/

switch(dest[5]){

case0x00:/* Bridge Group Address */

/* If STP is turned off,then must forward to keep loop detection */

if(p->br->stp_enabled==BR_NO_STP)

gotoforward;

break;

case0x01:/* IEEE MAC (Pause) */

gotodrop;

default:

/* Allow selective forwarding for most other protocols */

if(p->br->group_fwd_mask&(1u<

gotoforward;

}

/* LOCAL_IN hook点,注意经过这个hook点并不代表发送到主机协议栈(只有特殊目的mac 01-80-C2才会走到这里)*/

if(NF_HOOK(NFPROTO_BRIDGE,NF_BR_LOCAL_IN,skb,skb->dev,

NULL,br_handle_local_finish)){

returnRX_HANDLER_CONSUMED;/* consumed by filter */

}else{

*pskb=skb;

returnRX_HANDLER_PASS;/* continue processing */

}

}

/*转发逻辑*/

forward:

switch(p->state){

caseBR_STATE_FORWARDING:

rhook=rcu_dereference(br_should_route_hook);

if(rhook){

if((*rhook)(skb)){

*pskb=skb;

returnRX_HANDLER_PASS;

}

dest=eth_hdr(skb)->h_dest;

}

/* fall through */

caseBR_STATE_LEARNING:

/*skb的目的mac和bridge的mac一样,则将skb发往本机协议栈*/

if(ether_addr_equal(p->br->dev->dev_addr,dest))

skb->pkt_type=PACKET_HOST;

/*NF_BR_PRE_ROUTING hook点*/

NF_HOOK(NFPROTO_BRIDGE,NF_BR_PRE_ROUTING,skb,skb->dev,NULL,br_handle_frame_finish);

break;

default:

drop:

kfree_skb(skb);

}

returnRX_HANDLER_CONSUMED;

}

经过NF_BR_LOCAL_IN hook点会执行br_handle_local_finish函数。

br_handle_local_finish

201ccaa34df273e17d131d898a6b2616.png

经过NF_BR_PRE_ROUTING hook点会执行br_handle_frame_finish函数。

br_handle_frame_finish

09ab654897c5df4d9c06fa838ba62d3b.png

c9f3dbc328d9c5f574dfe95b9f095f65.png

我们先看发往本机协议栈的函数br_pass_frame_up。

br_pass_frame_up

484c51199e84ca7e5fa90f6b12568eac.png

再次进入netif_receive_skb,由于skb-dev被设置成了bridge,而bridge设备的rx_handler函数是没有被设置的,所以就不会再次进入bridge逻辑,而直接进入了主机上层协议栈。

下面看转发逻辑,转发逻辑主要在br_forward函数中,而br_forward主要调用__br_forward函数。

__br_forward

2d8bdd3b7b5cbc3528aae8b2e0c2d8c4.png

br_forward_finish

38ab987b27eb5d8e40d83a536dfb5bf0.png

br_dev_queue_push_xmit

2550d39a9bf61257918566aec360add7.png

Skb进入dev_queue_xmit就会调用相应设备驱动的发送函数。也就出了bridge逻辑。所以整个3.10kernel的bridge转发逻辑如下图所示:

3bfa9b6f624d0fa8f959b2b03210e81b.png

注意,和2.6kernel一样,bridge的OUTPUT hook点在bridge dev的发送函数中,这里不再分析列出。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值