网卡调优绑定

numa架构,万兆网卡两个,挂载不同numa

[root@localhost ~]# lscpu

Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                88
On-line CPU(s) list:   0-87
Thread(s) per core:    2
Core(s) per socket:    22
Socket(s):             2
NUMA node(s):          2
Vendor ID:             GenuineIntel
CPU family:            6
Model:                 79
Stepping:              1
CPU MHz:               2194.858
BogoMIPS:              4388.83
Virtualization:        VT-x
L1d cache:             32K
L1i cache:             32K
L2 cache:              256K
L3 cache:              56320K
NUMA node0 CPU(s):     0-21,44-65

NUMA node1 CPU(s):     22-43,66-87





[root@localhost ~]# cat /sys/class/net/eth4/device/numa_node 
0
[root@localhost ~]# cat /sys/class/net/eth3/device/numa_node 
1

[root@localhost ~]# 



脚本,网卡的队列设置,数据包RSS分流

#!/bin/sh






service irqbalance stop;






ethtool -K eth3 ntuple on
ethtool -X eth3 equal 8
ethtool -N eth3 rx-flow-hash udp4 sdfn


ethtool -L eth3 combined 8
ethtool -K eth3 gro off


grep eth3 /proc/interrupts |awk '{print $1, $NF}'




ethtool -K eth4 ntuple on
ethtool -X eth4 equal 8
ethtool -N eth4 rx-flow-hash udp4 sdfn


ethtool -L eth4 combined 8
ethtool -K eth4 gro off


grep eth4 /proc/interrupts |awk '{print $1, $NF}'



echo 000000000000000000001 > /proc/irq/159/smp_affinity;
echo 000000000000000000002 > /proc/irq/160/smp_affinity;
echo 000000000000000000004 > /proc/irq/161/smp_affinity;
echo 000000000000000000008 > /proc/irq/162/smp_affinity;
echo 000000000000000000010 > /proc/irq/163/smp_affinity;
echo 000000000000000000020 > /proc/irq/164/smp_affinity;
echo 000000000000000000040 > /proc/irq/165/smp_affinity;
echo 000000000000000000080 > /proc/irq/166/smp_affinity;




echo 100000,00000000,00000000 > /proc/irq/223/smp_affinity;
echo 200000,00000000,00000000 > /proc/irq/224/smp_affinity;
echo 400000,00000000,00000000 > /proc/irq/225/smp_affinity;
echo 800000,00000000,00000000 > /proc/irq/226/smp_affinity;
echo 010000,00000000,00000000 > /proc/irq/227/smp_affinity;
echo 020000,00000000,00000000 > /proc/irq/228/smp_affinity;
echo 040000,00000000,00000000 > /proc/irq/229/smp_affinity;

echo 080000,00000000,00000000 > /proc/irq/230/smp_affinity;


cho "eth4 irq:"

for i in {159..166} ; do cat /proc/irq/$i/smp_affinity ; done
echo "eth3 irq:"
for i in {223..230} ; do cat /proc/irq/$i/smp_affinity ; done


echo 100000,00000000,00000000 > /sys/class/net/eth3/queues/rx-0/rps_cpus
echo 200000,00000000,00000000 > /sys/class/net/eth3/queues/rx-1/rps_cpus
echo 400000,00000000,00000000 > /sys/class/net/eth3/queues/rx-2/rps_cpus
echo 800000,00000000,00000000 > /sys/class/net/eth3/queues/rx-3/rps_cpus
echo 010000,00000000,00000000 > /sys/class/net/eth3/queues/rx-4/rps_cpus
echo 020000,00000000,00000000 > /sys/class/net/eth3/queues/rx-5/rps_cpus
echo 040000,00000000,00000000 > /sys/class/net/eth3/queues/rx-6/rps_cpus
echo 080000,00000000,00000000 > /sys/class/net/eth3/queues/rx-7/rps_cpus


echo 100000,00000000,00000000 > /sys/class/net/eth3/queues/tx-0/xps_cpus
echo 200000,00000000,00000000 > /sys/class/net/eth3/queues/tx-1/xps_cpus
echo 400000,00000000,00000000 > /sys/class/net/eth3/queues/tx-2/xps_cpus
echo 800000,00000000,00000000 > /sys/class/net/eth3/queues/tx-3/xps_cpus
echo 010000,00000000,00000000 > /sys/class/net/eth3/queues/tx-4/xps_cpus
echo 020000,00000000,00000000 > /sys/class/net/eth3/queues/tx-5/xps_cpus
echo 040000,00000000,00000000 > /sys/class/net/eth3/queues/tx-6/xps_cpus
echo 080000,00000000,00000000 > /sys/class/net/eth3/queues/tx-7/xps_cpus


echo "eth3 rx-queue:"

for i in {0..7} ; do cat /sys/class/net/eth3/queues/rx-$i/rps_cpus ; done



echo 000000,00000000,00000001 > /sys/class/net/eth4/queues/rx-0/rps_cpus
echo 000000,00000000,00000002 > /sys/class/net/eth4/queues/rx-1/rps_cpus
echo 000000,00000000,00000004 > /sys/class/net/eth4/queues/rx-2/rps_cpus
echo 000000,00000000,00000008 > /sys/class/net/eth4/queues/rx-3/rps_cpus
echo 000000,00000000,00000010 > /sys/class/net/eth4/queues/rx-4/rps_cpus
echo 000000,00000000,00000020 > /sys/class/net/eth4/queues/rx-5/rps_cpus
echo 000000,00000000,00000040 > /sys/class/net/eth4/queues/rx-6/rps_cpus
echo 000000,00000000,00000080 > /sys/class/net/eth4/queues/rx-7/rps_cpus


echo 000000,00000000,00000001 > /sys/class/net/eth4/queues/tx-0/xps_cpus
echo 000000,00000000,00000002 > /sys/class/net/eth4/queues/tx-1/xps_cpus
echo 000000,00000000,00000004 > /sys/class/net/eth4/queues/tx-2/xps_cpus
echo 000000,00000000,00000008 > /sys/class/net/eth4/queues/tx-3/xps_cpus
echo 000000,00000000,00000010 > /sys/class/net/eth4/queues/tx-4/xps_cpus
echo 000000,00000000,00000020 > /sys/class/net/eth4/queues/tx-5/xps_cpus
echo 000000,00000000,00000040 > /sys/class/net/eth4/queues/tx-6/xps_cpus
echo 000000,00000000,00000080 > /sys/class/net/eth4/queues/tx-7/xps_cpus


echo "eth4 rx-queue:"
for i in {0..7} ; do cat /sys/class/net/eth4/queues/rx-$i/rps_cpus ; done

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
ESXi网卡聚合是一种网络技术,用于提高服务器的网络连接可靠性和性能。在一个ESXi主机中,可以将多个物理网卡在一起,形成一个逻辑网卡,以增加网络带宽和提高故障容错能力。 ESXi网卡聚合采用的是链路聚合控制协议(LACP)。通过LACP协议,ESXi主机能够将多个物理网卡组合成一个虚拟的逻辑网卡,并将该逻辑网卡直接连接到交换机上。这样,在传输数据时,可以同时使用多个物理网卡的带宽,提高数据传输速度。 在ESXi主机上配置网卡聚合时,需要先将物理网卡连接到同一个逻辑交换机端口组上,并为每个物理网卡配置相同的VLAN和网段信息。然后,在ESXi主机的管理界面上,可以将这些物理网卡为一个逻辑网卡,并指其对应的网络设置,包括IP地址、子网掩码等。 通过ESXi网卡聚合,可以实现多个物理网卡的负载均衡和故障容错。在负载均衡模式下,数据包会根据负载均衡算法被分发到各个物理网卡上,以实现带宽的最大化利用。而在故障容错模式下,如果其中一个物理网卡发生故障,系统会自动将数据传输切换到其他正常的物理网卡上,从而保证网络连接的可靠性。 总而言之,ESXi网卡聚合是一种提高服务器网络连接可靠性和性能的技术,通过将多个物理网卡在一起,实现负载均衡和故障容错,从而提高数据传输速度和网络的可用性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值