如何追查一个packet在linux 系统哪里丢失

要想追一个包在系统哪里丢失了, 就要了解 一个应用层的包在送出时 要经历那些 检查点 和被丢掉的点。

1. 在传输层,如果是 tcp 包 会有contrack 的 buf 的限制 可能会导致 packets 的丢失。

             => 检查办法:查看dmesg日志有报错:kernel: nf_conntrack: nf_conntrack: table full, dropping packet  , cat /proc/net/nf_conntrack. 

             nf_conntrack 的作用时记录tcp 的 连接状况表。

  Linux系统nf_conntrack连接跟踪机制简介_nf conntrack-CSDN博客

2. 在传输层 如果是tcp 每个系统都有tcp 的最大连接数  (tcp_max_syn_backlog 是 Linux 系统中用于控制 TCP 三次握手期间半连接(SYN_RCVD 状态)的最大队列长度的参数。在 TCP 三次握手过程中,服务器在收到客户端的 SYN 包后,会将对应的半连接放入一个队列中,等待完成三次握手的过程。当这个队列满了之后,新的连接请求将会被丢弃,这可能会导致客户端连接超时或者请求失败。为了避免这种情况,可以通过调整 tcp_max_syn_backlog 参数来增加该队列的长度,从而允许更多的半连接在队列中等待完成握手)

    => 检查方法: cat /proc/sys/net/ipv4/tcp_max_syn_backlog  

3. 在传输层 如果是tcp 每个系统的session 的time_wait 都不同,这样导致packets 的先手顺序乱了 导致丢包 ( 这个问只在当系统开启了tcp_tw_recycle时有)  该配置项可用于快速回收处于TIME_WAIT状态的socket以便重新分配。默认是关闭的,必要时可以开启该配置。但是开启该配置项后,有一些需要注意。

    =>我们可以查看cat /proc/sys/net/ipv4/tcp_max_tw_buckets 最大条数, 然后如果cat /proc/sys/net/ipv4/tcp_rw_recycle 开启时,  我们可以用netsta -at | grep "TIME_WAIT" | wc -n 来统计有多少半连接, 然后 在抓包 如果会的RST 那基本就是这个导致的。

4. 在IP层packets 要经过 iptable 的过滤。

     

 =>iptables -nvL 查看所有 规则

                  iptables -A INPUT -j LOG –log-prefix=”iptables-”  然后 dmesg 查看 iptables 的包的匹配情况。        

5.在ip 层还有的系统开启了反向路由检查rp_filter, 当 source 不能再 本地从收报的口路由出去时就drop。

    =  > 反向路由也还是一种保护机制, 就是我必须能把source 地址从我的端口送出去。

           cat /proc/sys/net/ipv4/conf/all/rp_filter

       https://www.cnblogs.com/lipengxiang2009/p/7446388.html

6. 再网卡层nic,由于现在都使用dma 技术 所以 nic 的ring buffer 满的时候 就会drop packets

       => cat /proc/net/dev   其中的fifo 就是指的时ring buffer full 的drop count

           ethtool -g eth0 

           ethtool -G eth0 rx 4096 tx 4096  更改ring buffer

        

        ifconfig 中的overruns 也是统计ring buffer 满了drop 的count

7. 在进入每个协议栈前 会有一个缓存队列,比如ip->tcp , 每个cpu 都有一个 协议栈缓存队列,当队列满了时 就会drop packets。 也就是软中断 响应不够。 

  =>通过查看 /proc/net/softnet_stat 可以确定是否发生了 netdev backlog 队列溢出

每一行代表每个 CPU 核的状态统计,从 CPU0 依次往下;每一列代表一个 CPU 核的各项统计:第一列代表中断处理程序收到的包总数;第二列即代表由于 netdev_max_backlog 队列溢出而被丢弃的包总数。
查看这个队列大小 cat /proc/sys/net/core/netdev_max_backlog  

8. MTU 设置 不合理 导致的packets drop

   => ifconfig eth0 去查看 mtu 大小

   由于 mtu 设置不和里导致 分片和重组 变得很多导致cpu 和一些buf 满了, 导致performance 低。 

网络问题 多用ethtoool,ifconfig 工具, /proce/sys/net 下是一些 设定,proc/net 下多是一些统计信息

reference:https://zhuanlan.zhihu.com/p/692288382

  • 13
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值