随着目前服务器数量的日益增加,出于管理方面的目的,我们越来越多的谈到了私有云,在部署私有云的过程中,我们遇到了一些困难,今天我将用一系列文章来描述我们解决问题的过程。
一方面由于服务器磁盘容量的稀缺,另一方面本着为半年以后iscsi存储测试的需求,我们决定使用iscsi进行启动。
iscsi网卡一般分为三种,纯网卡充当iscsi卡,带有TOE(tcp/ip offset engine)的变种减负卡(也称软卡),带有TOE和scsi引擎(其实就是asic芯片)的ISCSI HBA(也称硬卡)。
其中iscsi软卡在操作系统看来是块网卡,而iscsi hba在系统看来是块HBA(存储适配器)。
众所周知,VMware ESXI操作系统无法使用toe卡,而只能把它当做普通网卡使用,而iscsi硬卡如果不打特殊驱动是无法作为网卡使用的(无法绕过asic的处理)。
而目前世界上对于iscsi卡的生产共分如下阵营。以intel为主的不带TOE或带TOE的网卡(思路是通过强大的处理器去运算)以qlogic为主的TOE HBA(因为耗用处理器资源最大的层面是TCP/IP头的处理)而SCSI逻辑较为复杂,且失去了网卡的简便性。第三是以EMULEX和Broadcom为主的纯iscsi HBA。
在千兆环境下ISCSI即使以满负荷运行,大约CPU占用仍小于5%。(未启用巨帧)双路X5650 16G内存下获得。
而万兆环境下满负荷据冬瓜哥所说应该会耗费30%左右,笔者没有万兆的网卡无法测试。
即使在万兆条件下,一般客户端也无法持续满负荷读取磁盘;因而在target端使用硬卡的性价比要远大于软卡。
本次测试的搭建环境 dell c6100服务器 板载82576网卡(支持intel remote boot