linux下ip协议(V4)的实现(三)

这次我们来看数据包如何从4层传递到3层。 

先看下面的图,这张图表示了4层和3层之间(也就是4层传输给3层)的传输所需要调用的主要的函数: 


 

我们注意到3层最终会把帧用dst_output函数进行输出,而这个函数,我们上一次已经讲过了,他会调用skb->dst->output这个虚函数(他会对包进行3层的处理),而最终会调用一个XX_finish_output的函数,从而将数据传递到neighboring子系统。 

这张我们主要聚焦于ip_push_pending_frames,ip_append_data,ip_append_page,ip_queue_xmit这几个函数。 

ip_queue_xmit: 

4层协议(主要指tcp 和 sctp)将数据包按照pmtu切片(如果需要),然后3层的工作只需要给传递下来的切片加上ip头就可以了(也就是说调用这个函数的时候,其实4层已经切好片了)。因此这个函数的处理逻辑比较简单。 

ip_push_pending_frames和后面的2个函数: 

4层调用这几个函数不会考虑切片,4层调用ip_append_data时会存储请求,也就是会将数据包排队(其中每个都不大于pmtu)到一个输出队列.这样的话使3层的处理更加方便和高效。 

当4层需要flush输出队列到3层时,他需要显式的调用ip_push_pending_frames.其实也就是发送包到dst_output. 
ip_append_page只是ip_append_data的一个变体。 

我们还看到rawip和igmp都是直接调用dst_output,也就是直接和3层交互。 

在linux中,每一个bsd socket都被表示为一个socket的数据结构,而每一个protocol family都被表示为一个包含着sock的数据结构,这里我们来看PF_INET的结构: 

struct inet_sock {  
    /* sk and pinet6 has to be the first two members of inet_sock */  
    struct sock     sk;  
#if defined(CONFIG_IPV6) || defined(CONFIG_IPV6_MODULE)  
    struct ipv6_pinfo   *pinet6;  
#endif  
    /* Socket demultiplex comparisons on incoming packets. */  
...................................................  
    struct {  
..........................................  
    } cork;  
};

可以看到每个inet_sock都包含一个sock也就是socket,它存储了每个协议簇的私有部分的数据。这样只要给定我们一个sock,我们都能通过inet_sk来得到inet_sock的指针。其实按照他们的内存分布,他们的地址是一样的。 

而cork域则在ip_append_data和ip_append_page中扮演的重要的角色,它存储被这两个函数所需要的正确切片的一些上下文信息。 

接下来来看ip_queue_xmit的实现,这个函数主要是被tcp和sctp所使用,第一个参数表示被传递的buffer的指针,第二个参数主要是被sctp来使用,就是是否切片被允许的标志: 

int ip_queue_xmit(struct sk_buff *skb, int ipfragok)  
{  
	//取出sock,inet_sock以及option  
    struct sock *sk = skb->sk;  
    struct inet_sock *inet = inet_sk(sk);  
    struct ip_options *opt = inet->opt;  
    struct rtable *rt;  
    struct iphdr *iph;  
  
    /* Skip all of this if the packet is already routed, 
     * f.e. by something like SCTP. 
     */  
	//得到相关路由信息,如果buffer已经标记了相应的路由信息,则跳过下面的构造路由表。  
    rt = skb->rtable;  
    if (rt != NULL)  
        goto packet_routed;  
  
	//下面检测在这个sock中,路由是否已经cache,如果有,则检测这个路由是否还可以使用。  
    rt = (struct rtable *)__sk_dst_check(sk, 0);  
	//cache不存在,查找新路由。  
    if (rt == NULL) {  
        __be32 daddr;  
  
        /* Use correct destination address if we have options. */  
        daddr = inet->daddr;  
		//检测source route option  
        if(opt && opt->srr)  
            daddr = opt->faddr;  
  
        {  
            struct flowi fl = { 
				.oif = sk->sk_bound_dev_if,  
				.nl_u = { 
					.ip4_u ={ 
						.daddr = daddr,  
						.saddr = inet->saddr,  
						.tos = RT_CONN_FLAGS(sk) 
					}
				},  
				.proto = sk->sk_protocol,  
				.uli_u = {
					.ports ={
						.sport = inet->sport,  
						.dport = inet->dport,
					}
				}
			};  
  
            /* If this fails, retransmit mechanism of transport layer will 
             * keep trying until route appears or the connection times 
             * itself out. 
             */  
            security_sk_classify_flow(sk, &fl);  
			//如果是 strict source route option,则会在这个函数中进行下一跳的精确匹配。  
            if (ip_route_output_flow(sock_net(sk), &rt, &fl, sk, 0))  
                goto no_route;  
        }  
		//主要是保存一些设备的features。  
        sk_setup_caps(sk, &rt->u.dst);  
    }  
  
	//clone一个skb->dst,也就是引用计数+1了。  
    skb->dst = dst_clone(&rt->u.dst);  
  
packet_routed:  
	/*当有 strictroute   option的时候,检测下一跳,如果不等,则丢掉这个包。
	这里丢掉包不需要发送icmp,因为我们本身就是源,因此只需要返回错误代码给高层就行了。*/  
    if (opt && opt->is_strictroute && rt->rt_dst != rt->rt_gateway)  
        goto no_route;  
	//开始build ip头。  
	//移动指针指向ip头。  
    skb_push(skb, sizeof(struct iphdr) + (opt ? opt->optlen : 0));  
	//保存这个指针到network_head  
    skb_reset_network_header(skb);  
	//取出ip头  
    iph = ip_hdr(skb);  
	//实例化ip头。  
    *((__be16 *)iph) = htons((4 << 12) | (5 << 8) | (inet->tos & 0xff));  
    if (ip_dont_fragment(sk, &rt->u.dst) && !ipfragok)  
        iph->frag_off = htons(IP_DF);  
    else  
        iph->frag_off = 0;  
    iph->ttl      = ip_select_ttl(inet, &rt->u.dst);  
    iph->protocol = sk->sk_protocol;  
    iph->saddr    = rt->rt_src;  
    iph->daddr    = rt->rt_dst;  
    /* Transport layer set skb->h.foo itself. */  
  
    if (opt && opt->optlen) {  
        iph->ihl += opt->optlen >> 2;  
		//设定ip头不进行切片。  
        ip_options_build(skb, opt, inet->daddr, rt, 0);  
    }  
	//设置ip包的id。  
    ip_select_ident_more(iph, &rt->u.dst, sk,(skb_shinfo(skb)->gso_segs ?: 1) - 1);  
  
	//用来流量控制。  
    skb->priority = sk->sk_priority;  
    skb->mark = sk->sk_mark;  
  
	//这个函数首先进行ip checksum,最终会通过netfilter的hook,从而由netfilter来决定包丢弃还是传递给dst_output.  
    return ip_local_out(skb);  
  
no_route:  
    IP_INC_STATS(sock_net(sk), IPSTATS_MIB_OUTNOROUTES);  
    kfree_skb(skb);  
    return -EHOSTUNREACH;  
} 


接下来来看ip_append_data函数,先来看它的参数的含义: 

sk: 这个传输包的socket 
getfrag: 这个函数用来复制从4层接收到的负荷到数据帧(3层)。 
from: 4层的data起始指针。 
length: 将要传输的数据的大小,包括4层的头和4层的负荷。 
transhdrlen: 四层头的大小 
ipc: 需要正确forward数据报的一些信息。 
rt: 路由信息 
flags:这个变量样子是MSG_XXX,他们包括下面几个定义: 

  MSG_MORE: 这个是应用程序用来告诉4层这儿将会有更多的小数据包的传输,然后将这个标记再传递给3层,3层就会提前划分一个mtu大小的数据包,来组合这些数据帧。 
  MSG_DONTWAIT: 当这个flag被设置,调用ip_append_data将不会阻塞。 
  MSG_PROBE :当这个标记被设置,说明用户不想要真正的传输什么东西,而是知识探测路径。例如测试一个pmtu。 

解释下ip+append_data的大体架构,在ip_queue_xmit中,也就是tcp协议使用的传输中,每次传递下来的数据包都要扔给dst_output来处理,而在ip_append_data中,它可以通过MSG_MORE来创建一个最接近mtu大小的数据块,然后将传递下来数据包(小于mtu)的,多个组成一个最接近mtu大小的数据包,然后传递给dst_output.而且他还有一个sk_write_queue队列,这个队列保存了数据传输的请求,也就是将要传递给dst_output的数据包(上面所说的最接近mtu大小的数据包)组成一个队列,从而当ip_push_pending_frams调用时,传递给dst_output. 


下面这张图解释了,一个不需要切片,并且包含一个ipsec头的ip包通过ip_append_data后的结果: 


 

这里要注意3层头的填充是通过ip_push_pending来进行填充的。而且一般的4层协议不会直接调用ip_push_pending_frams,而是调用它的包装函数,比如udp就会调用udp_push_pending_frames。 

还有一个要注意的是,当没有msg_more时,如果有一个大于pmtu的包传递下来时,他会切包,其中第一个包为pmtu大小,第二个包是剩下的大小,然后把这两个包加入到sk_write_queue队列。而设置了msg_more,此时第二个包的大小就是pmtu,也就是说当再有小的数据包下来,就不需要再次分配空间,而可以直接加入到剩余的数据空间中。 

有些硬件设备提供Scatter/Gather I/o这也就意味着能够交由硬件来组合这些小的数据包(3层可以什么都不用做,当数据包离开host的时候,硬件会将它组合好),这样就降低了分配内存和复制数据的开销。 

由于一个sk buff只会有一个ip头,因此放到page buff的只会是L4 payload,而不包括头。这里就不需要复制,而是直接将数据放到page buff,接下来的图表示了有Scatter/Gather I/O的情况时,调用ip_append_data之前和之后的区别: 

 

struct skb_frag_struct {  
    struct page *page;  
    __u32 page_offset;  
    __u32 size;  
};  

这里可以看到nr_frags域来表示有多少个S/G I/O buffer在这个包中被使用。其实整个S/G I/O buffer相当于一个数组,每个元素都是一个skb_frag_t结构,而这个数组的大小就是nr_frags,最大的size是MAX_SKB_FRAGS. 

这里要注意,当一个新的帧的大小,大于当前页的剩余大小是,他会被分为两部分,一部分在当前页,一部分在新的页。 

没有 s/g I/O: 
它会复制数据到当前的data。 


4层可以调用ip_append_data多次,在flush这个buff之前。 

还有一个getfrag,我再说明下,ip_append_data的任务之一就是复制输入数据到它创建的帧,而不同的协议需要不同的复制操作。比如4层的check sum。有些4层协议就是不需要的。 
因此就有了这样一个虚函数,不同的协议实现自己的复制函数,然后传入到ip_append_data. 
这个函数其实也就是将用户空间的数据复制到内核空间。 
下面这个图就是一些协议实现的复制函数: 





接下来的这个图表示了ip_append_data的流程图: 


 

下来我们来看它的具体实现: 

int ip_append_data(struct sock *sk,  
           int getfrag(void *from, char *to, int offset, int len,int odd, struct sk_buff *skb),  
           void *from, int length, int transhdrlen,  
           struct ipcm_cookie *ipc, struct rtable *rt,unsigned int flags)  
{  
	//取出取出相关的变量。  
    struct inet_sock *inet = inet_sk(sk);  
    struct sk_buff *skb;  
  
    struct ip_options *opt = NULL;  
    int hh_len;  
    int exthdrlen;  
    int mtu;  
    int copy;  
    int err;  
    int offset = 0;  
    unsigned int maxfraglen, fragheaderlen;  
    int csummode = CHECKSUM_NONE;  
  
	//如果只是探测路径则直接返回。  
    if (flags&MSG_PROBE)  
        return 0;  
	//当sk_write_queue 为空,意味着创建的是第一个ip帧。因此需要初始化一些相关域。  
    if (skb_queue_empty(&sk->sk_write_queue)) {  
        /* 
         * setup for corking. 
         */  
		//初始化cork的一些相关域。  
        opt = ipc->opt;  
        if (opt) {  
            if (inet->cork.opt == NULL) {  
                inet->cork.opt = kmalloc(sizeof(struct ip_options) + 40, sk->sk_allocation);  
                if (unlikely(inet->cork.opt == NULL))  
                    return -ENOBUFS;  
            }  
            memcpy(inet->cork.opt, opt, sizeof(struct ip_options)+opt->optlen);  
            inet->cork.flags |= IPCORK_OPT;  
            inet->cork.addr = ipc->addr;  
        }  
        dst_hold(&rt->u.dst);  
        inet->cork.fragsize = mtu = inet->pmtudisc == IP_PMTUDISC_PROBE ?  
                        rt->u.dst.dev->mtu:dst_mtu(rt->u.dst.path);  
        inet->cork.dst = &rt->u.dst;  
        inet->cork.length = 0;  
  
        sk->sk_sndmsg_page = NULL;  
        sk->sk_sndmsg_off = 0;  
        if ((exthdrlen = rt->u.dst.header_len) != 0) {  
			//加上扩展头和传输层的头的大小。  
            length += exthdrlen;  
            transhdrlen += exthdrlen;  
        }  
    } else {  
        rt = (struct rtable *)inet->cork.dst;  
        if (inet->cork.flags & IPCORK_OPT)  
            opt = inet->cork.opt;  
		//不是第一个帧,则需要把ipsec头和4层的伪头的大小赋值为0.(因为同一个sk,共享相同的头。  
        transhdrlen = 0;  
        exthdrlen = 0;  
        mtu = inet->cork.fragsize;  
    }  
	//得到2层头的大小(也就是预留2层头的大小).  
    hh_len = LL_RESERVED_SPACE(rt->u.dst.dev);  
	//得到3层头的大小。  
    fragheaderlen = sizeof(struct iphdr) + (opt ? opt->optlen : 0);  
	//ip包的大小。基于路由pmtu。  
    maxfraglen = ((mtu - fragheaderlen) & ~7) + fragheaderlen;  
  
	//由于ip包的最大大小为64kb(oxFFFF),因此拒绝大于这个数据包。  
    if (inet->cork.length + length > 0xFFFF - fragheaderlen) {  
        ip_local_error(sk, EMSGSIZE, rt->rt_dst, inet->dport, mtu-exthdrlen);  
        return -EMSGSIZE;  
    }  
  
    /* 
     * transhdrlen > 0 means that this is the first fragment and we wish 
     * it won't be fragmented in the future. 
     */  
	//检测checksum是否需要硬件来做。  
    if (transhdrlen &&  
        length + fragheaderlen <= mtu &&  
        rt->u.dst.dev->features & NETIF_F_V4_CSUM &&  
        !exthdrlen)  
        csummode = CHECKSUM_PARTIAL;  
  
    inet->cork.length += length;  
	//检测长度是否大于mtu,以及是否是udp协议。然后进行udp分片。  
    if (((length> mtu) || !skb_queue_empty(&sk->sk_write_queue)) &&  
        (sk->sk_protocol == IPPROTO_UDP) &&  
        (rt->u.dst.dev->features & NETIF_F_UFO)) {  
		//进行udp分片。  
        err = ip_ufo_append_data(sk, getfrag, from, length, hh_len,  
								fragheaderlen, transhdrlen, mtu,flags);  
        if (err)  
            goto error;  
        return 0;  
    }  
  
    if ((skb = skb_peek_tail(&sk->sk_write_queue)) == NULL)  
        goto alloc_new_skb;  
  
	//开始将数据复制到创建的帧。  
    while (length > 0) {  
        /* Check if the remaining data fits into current packet. */  
        copy = mtu - skb->len;  
  
		//空间不足时(也就是当前帧剩余的大小不够放入将要复制的数据).  
        if (copy < length)  
            copy = maxfraglen - skb->len;  
		//帧太大,需要切片。  
        if (copy <= 0) {  
  
            char *data;  
            unsigned int datalen;  
            unsigned int fraglen;  
            unsigned int fraggap;  
            unsigned int alloclen;  
            struct sk_buff *skb_prev;  
alloc_new_skb:  
            skb_prev = skb;  
			//检测上一个skb是否存在  
            if (skb_prev)  
		/*存在取得他的fraggap(小于8字节的).这里要解释下fraggap.
		除了最后一个ip帧,所有的ip帧都必须使他的ip帧的负荷的大小为8字节的倍数。
		因此当kernel分配一个新的buffer时,他可能需要移动一些数据从前一个buffer的尾部到新的buffer的头部。*/
                fraggap = skb_prev->len - maxfraglen;  
            else  
                fraggap = 0;  
  
            /* 
             * If remaining data exceeds the mtu, 
             * we know we need more fragment(s). 
             */  
			//得到数据长度  
            datalen = length + fraggap;  
            if (datalen > mtu - fragheaderlen)  
                datalen = maxfraglen - fragheaderlen;  
            fraglen = datalen + fragheaderlen;  
			//如果flag为MSG_MORE并且设备设备不支持Scatter/Gather I/O.则需要分配一块等于mtu的内存。  
            if ((flags & MSG_MORE) && !(rt->u.dst.dev->features&NETIF_F_SG))  
                alloclen = mtu;  
            else  
                alloclen = datalen + fragheaderlen;  
  
            /* The last fragment gets additional space at tail. 
             * Note, with MSG_MORE we overallocate on fragments, 
             * because we have no idea what fragment will be 
             * the last. 
             */  
            if (datalen == length + fraggap)  
                alloclen += rt->u.dst.trailer_len;  
  
			//alloc相应的skb。  
            if (transhdrlen) {  
                skb = sock_alloc_send_skb(sk,alloclen + hh_len + 15,(flags & MSG_DONTWAIT), &err);  
            } else {  
                skb = NULL;  
                if (atomic_read(&sk->sk_wmem_alloc) <= 2 * sk->sk_sndbuf)  
                    skb = sock_wmalloc(sk,alloclen + hh_len + 15, 1,sk->sk_allocation);  
                if (unlikely(skb == NULL))  
                    err = -ENOBUFS;  
            }  
			//检测是否成功  
            if (skb == NULL)  
                goto error;  
			//设置校验位  
            skb->ip_summed = csummode;  
            skb->csum = 0;  
            skb_reserve(skb, hh_len);  
  
			//得到数据位置。  
            data = skb_put(skb, fraglen);  
            skb_set_network_header(skb, exthdrlen);  
			//得到传输层的头部。  
            skb->transport_header = (skb->network_header +  
                         fragheaderlen);  
            data += fragheaderlen;  
			//检测是否有fraggap.  
            if (fraggap) {  
                skb->csum = skb_copy_and_csum_bits(skb_prev, maxfraglen,data + transhdrlen, fraggap, 0);  
                skb_prev->csum = csum_sub(skb_prev->csum,skb->csum);  
                data += fraggap;  
                pskb_trim_unique(skb_prev, maxfraglen);  
            }  
  
			//得到所需要拷贝的数据的大小  
            copy = datalen - transhdrlen - fraggap;  
			//开始拷贝数据。  
            if (copy > 0 && getfrag(from, data + transhdrlen, offset, copy, fraggap, skb) < 0) {  
                err = -EFAULT;  
                kfree_skb(skb);  
                goto error;  
            }  
  
            offset += copy;  
            length -= datalen - fraggap;  
            transhdrlen = 0;  
            exthdrlen = 0;  
            csummode = CHECKSUM_NONE;  
  
            /* 
             * Put the packet on the pending queue. 
             */  
			//加这个包到write_queue队列。  
            __skb_queue_tail(&sk->sk_write_queue, skb);  
            continue;  
        }  
  
        if (copy > length)  
            copy = length;  
  
		//如果不支持Scatter/Gather I/O.则直接拷贝数据  
        if (!(rt->u.dst.dev->features&NETIF_F_SG)) {  
            unsigned int off;  
  
            off = skb->len;  
            if (getfrag(from, skb_put(skb, copy),  
                    offset, copy, off, skb) < 0) {  
                __skb_trim(skb, off);  
                err = -EFAULT;  
                goto error;  
            }  
        } else {  
			//如果支持S/G I/O则开始进行相应操作  
			//i为当前已存储的个数。  
			int i = skb_shinfo(skb)->nr_frags;  
			//取出skb_frag_t指针。  
			skb_frag_t *frag = &skb_shinfo(skb)->frags[i-1];  
			//得到当前的物理页。  
			struct page *page = sk->sk_sndmsg_page;  
			//得到当前的物理页的位移(也就是我们接下来要存储的位置的位移)  
			int off = sk->sk_sndmsg_off;  
			unsigned int left;  
	  
			//如果有足够的空间则将数据放进相应的物理页的位置。  
			if (page && (left = PAGE_SIZE - off) > 0) {  
				//当剩余的空间不够放将要拷贝的数据时,则先将剩余的空间拷贝完毕。然后下次循环再进行拷贝剩下的。  
				if (copy >= left)  
					copy = left;  
				if (page != frag->page) {  
					if (i == MAX_SKB_FRAGS) {  
						err = -EMSGSIZE;  
						goto error;  
					}  
					get_page(page);  
					//填充页  
					skb_fill_page_desc(skb, i, page, sk->sk_sndmsg_off, 0);  
					frag = &skb_shinfo(skb)->frags[i];  
				}  
			}   
			//检测是否存储空间已满。(此时说明page不存在或者,剩余大小威0,此时需要重新alloc一个物理页。  
			else if (i < MAX_SKB_FRAGS) {  
				//检测所需拷贝的数据的大小是否大于页的大小。  
				if (copy > PAGE_SIZE)  
					copy = PAGE_SIZE;  
				//则新分配一个页。  
				page = alloc_pages(sk->sk_allocation, 0);  
				if (page == NULL)  {  
					err = -ENOMEM;  
					goto error;  
				}  
				sk->sk_sndmsg_page = page;  
				sk->sk_sndmsg_off = 0;  

				skb_fill_page_desc(skb, i, page, 0, 0);  
				frag = &skb_shinfo(skb)->frags[i];  
			} else {  
				err = -EMSGSIZE;  
				goto error;  
			}  
			//调用getfrag,填充相应的数据包(4层传递下来的数据)  
            if (getfrag(from, page_address(frag->page)+frag->page_offset+frag->size, offset, copy, skb->len, skb) < 0) {  
                err = -EFAULT;  
                goto error;  
            }  
            sk->sk_sndmsg_off += copy;  
            frag->size += copy;  
            skb->len += copy;  
            skb->data_len += copy;  
            skb->truesize += copy;  
            atomic_add(copy, &sk->sk_wmem_alloc);  
        }  
		//计算下次需要再拷贝的。。  
        offset += copy;  
        length -= copy;  
    }  
  
    return 0;  
  
error:  
    inet->cork.length -= length;  
    IP_INC_STATS(sock_net(sk), IPSTATS_MIB_OUTDISCARDS);  
    return err;  
} 

在上面的代码中,我们可以看到同一个物理页,有可能被sk_sndmsg_page和skb_frag_t 所共享,可以看下下面的图: 



 


接下来来看ip_append_page,这个函数比较简单,我们大概分析下就可以了。 

我们知道内核提供给用户空间的一个零拷贝的接口sendfile.这个接口只能当设备提供Scatter/Gather I/O的时候,才能使用。而它的实现就是基于ip_append_page这个函数来实现的。如果设备不支持S/G I/O,ip_append_page会直接返回错误。 

它的逻辑实现和ip_append_page最后面那段实现很相似,不过有些不同,当加一个新的帧到page时,ip_append_page它会merge新的和也在当前页的前一个帧。它会通过调用skb_can_coalesce来进行检测这个。然后当merge是可能的,它就会update前一个帧的长度。 
当merge是不可能的时候,处理和ip_append_data相似。 

下面就是ip_append_page的一些代码片段: 

if (skb_can_coalesce(skb, i, page, offset)) {  
            skb_shinfo(skb)->frags[i-1].size += len;  
        } else if (i < MAX_SKB_FRAGS) {  
            get_page(page);  
            skb_fill_page_desc(skb, i, page, offset, len);  
        } else {  
            err = -EMSGSIZE;  
            goto error;  
        }

ip_append_page只被udp使用。tcp不使用ip_append_data和ip_push_pending_frams是因为它把一些逻辑放到tcp_sendmsg来实现了。因此相似的,0拷贝接口,tcp不使用ip_append_page是因为他在do_tcp_sendpage中实现了相同的逻辑。 

最后我们来看ip_push_pending_frams函数。 

这个函数相当于一个notify函数,当4层决定传输帧到ip层的时候,他就需要调用这个函数.通过前面我们知道此时所有的数据(如果不支持Scatter/Gather I/O),都在sk_write_queue中。 

这个函数要做的其实很简单,就是从sk_write_queue中取出数据,加上ip头,然后通过dst_output发送给3层。 

当数据从sk_write_queue从移除后,加入到frag_list链表中。 
下面这张图表示了从sk_write_queue中移除buffer之前和之后的区别(没有考虑Scatter/Gather I/O). 


 


接下来来看它的实现: 

int ip_push_pending_frames(struct sock *sk)  
{  
	//初始化一些数据  
    struct sk_buff *skb, *tmp_skb;  
    struct sk_buff **tail_skb;  
    struct inet_sock *inet = inet_sk(sk);  
    struct net *net = sock_net(sk);  
    struct ip_options *opt = NULL;  
    struct rtable *rt = (struct rtable *)inet->cork.dst;  
    struct iphdr *iph;  
    __be16 df = 0;  
    __u8 ttl;  
    int err = 0;  
	//取得第一个buffer  
    if ((skb = __skb_dequeue(&sk->sk_write_queue)) == NULL)  
        goto out;  
	//得到他的frag_list.  
    tail_skb = &(skb_shinfo(skb)->frag_list);  
  
    /* move skb->data to ip header from ext header */  
    if (skb->data < skb_network_header(skb))  
        __skb_pull(skb, skb_network_offset(skb));
		
	//开始遍历并取出所有的buffer到frag_list.  
    while ((tmp_skb = __skb_dequeue(&sk->sk_write_queue)) != NULL) {  
        __skb_pull(tmp_skb, skb_network_header_len(skb));  
        *tail_skb = tmp_skb;  
        tail_skb = &(tmp_skb->next);  
        skb->len += tmp_skb->len;  
        skb->data_len += tmp_skb->len;  
        skb->truesize += tmp_skb->truesize;  
        __sock_put(tmp_skb->sk);  
        tmp_skb->destructor = NULL;  
        tmp_skb->sk = NULL;  
    }  
  
    /* Unless user demanded real pmtu discovery (IP_PMTUDISC_DO), we allow 
     * to fragment the frame generated here. No matter, what transforms 
     * how transforms change size of the packet, it will come out. 
     */  
    if (inet->pmtudisc < IP_PMTUDISC_DO)  
        skb->local_df = 1;  
  
    /* DF bit is set when we want to see DF on outgoing frames. 
     * If local_df is set too, we still allow to fragment this frame 
     * locally. */  
    if (inet->pmtudisc >= IP_PMTUDISC_DO ||  
        (skb->len <= dst_mtu(&rt->u.dst) &&  
         ip_dont_fragment(sk, &rt->u.dst)))  
		//标记ip头不要被切片。  
		df = htons(IP_DF);
		
	//如果在头中包含ip option,则给option赋值,然后下面会处理这个option。  
    if (inet->cork.flags & IPCORK_OPT)  
        opt = inet->cork.opt;  
	//如果是多播,则赋值多播的ttl  
    if (rt->rt_type == RTN_MULTICAST)  
        ttl = inet->mc_ttl;  
    else  
        ttl = ip_select_ttl(inet, &rt->u.dst);  
  
	//得到ip头的指针。  
    iph = (struct iphdr *)skb->data;  
	//开始初始化ip头。  
    iph->version = 4;  
    iph->ihl = 5;  
    if (opt) {  
        iph->ihl += opt->optlen>>2;  
        ip_options_build(skb, opt, inet->cork.addr, rt, 0);  
    }  
    iph->tos = inet->tos;  
    iph->frag_off = df;  
	//得到ip包的id。  
    ip_select_ident(iph, &rt->u.dst, sk);  
    iph->ttl = ttl;  
    iph->protocol = sk->sk_protocol;  
    iph->saddr = rt->rt_src;  
    iph->daddr = rt->rt_dst;  
  
    skb->priority = sk->sk_priority;  
    skb->mark = sk->sk_mark;  
    skb->dst = dst_clone(&rt->u.dst);  
  
	//如果协议是ICMP则进行相关处理。  
    if (iph->protocol == IPPROTO_ICMP)  
        icmp_out_count(net, ((struct icmphdr *)skb_transport_header(skb))->type);  
  
    /* Netfilter gets whole the not fragmented skb. */  
	//输出到4层,这个函数上面有介绍过,会通过一个netfilter的hook.  
    err = ip_local_out(skb);  
    if (err) {  
        if (err > 0)  
            err = inet->recverr ? net_xmit_errno(err) : 0;  
        if (err)  
            goto error;  
    }  
  
out:  
    ip_cork_release(inet);  
    return err;  
  
error:  
    IP_INC_STATS(net, IPSTATS_MIB_OUTDISCARDS);  
    goto out;  
}  

接下来我们会来简要的介绍4层使用上面的函数接口和3层如何把帧传递给2层的接口: 

先来看udp_sendmsg的代码片段:

	up->len += ulen;  
    getfrag  =  is_udplite ?  udplite_getfrag : ip_generic_getfrag;  
	//将要传输的包交给ip_append_data来处理  
    err = ip_append_data(sk, getfrag, msg->msg_iov, ulen,  
            sizeof(struct udphdr), &ipc, rt,  
            corkreq ? msg->msg_flags|MSG_MORE : msg->msg_flags);  
    if (err)  
        udp_flush_pending_frames(sk);  
    else if (!corkreq)  
	//如果需要传递给3层,则调用udp_push_pending_frames,这个函数是对ip_push_pending_frames的简单封装。  
        err = udp_push_pending_frames(sk);  
    else if (unlikely(skb_queue_empty(&sk->sk_write_queue)))  
        up->pending = 0;  
    release_sock(sk); 

我们现在知道4层到3层之后,最终通过dst_output来把帧进行输出,这个函数在单播的情况下,是被实例化为ip_output.这里和前面的netfilter一样,还存在一个ip_output_finish方法,当通过netfilter hook后,如果这个包可以被netfilter放过,那么帧就会传递到ip_output_finish方法,然后再调用ip_output_finish2方法。而最终dev_queue_xmit(前面的blog有介绍,也就是2层的传输方法)会被调用(这里是通过hh->hh_output方法或者fst->neighbour->output 2个虚函数)来传输。 

static inline int ip_finish_output2(struct sk_buff *skb)  
{  
	//.........................................  
  
    if (dst->hh)  
        return neigh_hh_output(dst->hh, skb);  
    else if (dst->neighbour)  
        return dst->neighbour->output(skb);  
	//...................................  
} 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值