![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
内核-tcp
文章平均质量分 88
zengxiaobai
这个作者很懒,什么都没留下…
展开
-
CLOSE_WAIT 和TCP_KEEPALIVE
之前面试 曾经被问到 CLOSE_WAIT 状态意味这什么(服务端收到FIN 包后 还没有close fd,存在fd 泄漏的风险) 问题现象: 代理报错 too many open files, ulimit 设置为100W(/proc/pid/limits),使用ss 命令才几千,lsof 有很多 socket(不显示 ESTAB 等TCP 状态,仅显示 SOCK),查看进程 /proc/pid/fd/ 确实有100w (大量不显示状态的socket), 达到了ulimit 上限. 经过排查,确实是.原创 2020-10-14 20:21:25 · 2623 阅读 · 1 评论 -
内核均匀发包的问题
内核均匀发包的问题 背景 在PK 过程中,发现某厂商使用每n ms 发送一些报文的现象,与我们突发的机制相比,优势是没有丢包(4G 环境下),遂被要求实现一个类似均匀发包的机制, 过程 由于之前没有任何内核相关经验,读代码、设计算法(把连续发送改成条件发送,令牌算法?) 发包只懂send 函数,于是从send 接口 开始读代码,https://elixir.bootlin.com/linux...原创 2019-04-11 14:49:00 · 684 阅读 · 0 评论 -
内核-syn-ack RTO修改
内核-syn-ack RTO修改 尝试修改SYN ACK 包的重传时间修改,刚开始 使用 ip route list ip route change ... rto_min 20ms ss -ite 使用命令 ss -ite 发现RTO 从200+ ms 降到30ms 等,说明配置有生效,网上说的RTO_MIN 200ms 修改生效 问题在于,如果仅仅是通过这种不科学的验证方式 无法确定s...原创 2019-04-19 14:07:40 · 475 阅读 · 0 评论