1) 简介
内核参数会影响收发包性能,尤其是在发包比较快的网卡上,往往需要修改内核参数以提高性能。内核中有很多个buffer相关的参数,下面根据文档解释下各个参数作用。
参考文档:
http://man7.org/linux/man-pages/man7/udp.7.html
http://man7.org/linux/man-pages/man7/tcp.7.html
http://man7.org/linux/man-pages/man7/socket.7.html
2) 测试情况
Socket上有个SO_RCVBUF和SO_RCVBUF两个参数,可以通过修改这两个参数增大单个socket的缓冲区。
通过测试发现,UDP中SO_RCVBUF与内核中/proc/sys/net/core/rmem_default对应,SO_SNDBUF与/proc/sys/net/core/wmem_default对应。
而TCP中SO_RCVBUF与内核中/proc/sys/net/ipv4/tcp_rmem 的第二项default对应,SO_SNDBUF与/proc/sys/net/ipv4/tcp_wmem的第二项default对应。
以下是内核buffer相关参数解释:
内核参数 | 含义 | |
net.core.rmem_default | 内核给单个socket分配的默认读buffer大小 | |
net.core.rmem_max | 所有socket的读buffer不能超过这个值 | |
net.core.wmem_default | 内核给单个socket分配的默认写buffer大小 | |
net.core.wmem_max | 所有socket的写buffer不能超过这个值 | |
net.ipv4.tcp_mem | low | 如果全部tcp socket分配的内存少于这个值,不会调整内存 |
pressure | 如果全部tcp socket分配的内存超过这个值,内核将调整每个tcp socket的内存 | |
high | 全部tcp socket分配的内存不超过这个值,这个值覆盖其他限制 | |
net.ipv4.tcp_rmem | min | 当所有tcp socket使用内存紧张时,内核保证至少给每个tcp socket的读buffer分配这个值的内存大小 |
default | 每个tcp socket默认读buffer缓冲区,会覆盖net.core.rmem_default | |
max | 所有tcp socket读buffer总大小上限,不会覆盖net.core.rmem_max | |
net.ipv4.tcp_wmem | min | 当所有tcp socket使用内存紧张时,内核保证至少给每个tcp socket的写buffer分配这个值的内存大小 |
default | 每个tcp socket默认写buffer缓冲区,会覆盖net.core.wmem_default | |
max | 所有tcp socket写buffer总大小上限,不会覆盖net.core.wmem_max | |
net.ipv4.udp_mem | low | 如果全部udp socket分配的内存少于这个值,不会调整内存 |
pressure | 如果全部udp socket分配的内存超过这个值,内核将调整每个udp socket的内存 | |
high | 全部udp socket分配的内存不超过这个值,这个值覆盖其他限制 | |
net.ipv4.udp_rmen_min | 当所有udp socket使用内存紧张时,内核保证至少给每个udp socket的读buffer分配这个值的内存大小 | |
net.ipv4.udp_wmen_min | 当所有udp socket使用内存紧张时,内核保证至少给每个udp socket的写buffer分配这个值的内存大小 |
3) 疑问
net.core.rmem_max和net.core.wmem_max有没有分TCP和UDP?
net.ipv4.tcp_rmem中max都被net.core.rmem_max覆盖了,那么他的作用又是什么?