如何在20分钟内批量部署20台ESXi服务器?

357 篇文章 140 订阅

如何在20分钟内批量部署20台ESXi服务器?

https://mp.weixin.qq.com/s?__biz=MjM5NTk0MTM1Mw==&mid=2650642256&idx=2&sn=5883e4f7a18b2a5221a60631a76a8004&chksm=bef9e9d6898e60c0d477e6efb2bf68b652b91bb2e1c96ca2565a1de37b123a09025f7466c579&scene=21#wechat_redirect

朱峰 twt企业IT社区 2月18日
 
 

图片

【作者】陈着峰,某银行主机管理员

 

近期新到20台华为RH2288V5服务器,需要部署ESXi,由于机器偏移,于是考虑是否能用pxe实现分配部署,经过两天的摸索实践,最终也实现了上述目标,现存记录一下过程。

先介绍一下背景。这次新到的RH2288V5,前面没有配硬盘,只在后面PCI卡位置配了一块M2的SSD。经过查看BIOS,机器配了两块RAID卡,一块用于管理前硬盘背板,服务器另外的RAID配置,没有划分VD,配的唯一一块SSD配为Unconfigure Good状态,且RAID控制器没有开启JBOD模式。

由于整机只配了一块SSD,RAID卡或把这唯一的一块SSD划分一个RAID0的VD,然后打开RAID控制器的JBOD模式让这块SSD以直通模式被操作系统识别。那么问题来了,如何需要说明的是,华为RH2288V5服务器设置是开启了UEFI引导的,基本上各大品牌现在新出的服务器,都是UEFI模式了。

经过一番搜寻,发现Broadcom提供了一个叫StorCLI的命令行工具,这个工具可以实现对RAID卡所有的配置,下载地址https://docs.broadcom.com/docs/MR_SAS_Unified_StorCLI_7.8-007.0813.0000.0000。 zip。那是否能通过pxe引导一个实时模式的linux,然后自动运行storecli把控制器JBOD模式启用起来呢?目标是在最短的时间实现批量配置RAID,所以最好是拿一个开箱即用的linux,不能涉及到复杂的修改或自定义linux启动媒体等工作,最终通过一番测试后在clonezilla上实现了所需的功能。

clonezilla是一个基于debian / ubuntu修改的发行版,不带图形界面,其主要用途其实是备份/恢复系统,那为什么会选择用它呢?首先是这个发行版体积比较小,整个ISO只有不到300M ;其次最重要的是它支持在grub的内核参数初始化一些它自定义的参数,来实现很多额外的功能,其中最重要是有我们需要的直接运行命令的参数!

版本使用是用的clonezilla-live-20180812-bionic-amd64.iso,它是基于ubuntu 18.04LTS修改而来。下载地址:https://sourceforge.net/projects/clonezilla/files/clonezilla_live_alternative/

让我们首先来详细分析如何使用pxe + clonezilla + storcli实现批量配置服务器RAID。

1,首先需要准备一台RHEL7的虚拟机(当然你要喜欢的话用物理机也行,网络能通就行),这台机用于提供dhcp + tftp + nfs服务,这些服务都需要先配置好,具体关于如何配置以及PXE引导更多的内容,可以参考我的上一篇文章。在介绍文章中,用于dhcpd分配IP的是虚拟机第二块网卡,地址配的是192.168.3.1,网段当然就是192.168.3.0了。

2,准备前期所需的脚本和storcli主程序。这里使用的NFS目录为/ nfs / pxe,在这个目录里面,准备好3个文件,分别是jbod.sh,storcli64,ks_esxi.cfg。

jbod.sh用于clonezilla引导成功之后,通过该脚本来执行storcli配RAID,该文件内容如下:

<span style="color:#333333"><code><span style="color:#0e9ce5">echo</span> <span style="color:#dd1144">""</span>;</code><code><span style="color:#0e9ce5">echo</span> <span style="color:#dd1144">"**** Ready to run StorCli! ****"</span>;</code><code><span style="color:#0e9ce5">echo</span> <span style="color:#dd1144">""</span>;</code><code><span style="color:#0e9ce5">sleep</span> <span style="color:#0e9ce5">5</span>;</code>
<code><span style="color:#0e9ce5">sudo</span> /opt/storcli64 /c1 set jbod=<span style="color:#0e9ce5">on</span>;</code><code><span style="color:#0e9ce5">sleep</span> <span style="color:#0e9ce5">5</span>;</code><code><span style="color:#0e9ce5">echo</span> <span style="color:#dd1144">""</span>;</code><code><span style="color:#0e9ce5">sudo</span> /opt/storcli64 show;</code><code><span style="color:#0e9ce5">sleep</span> <span style="color:#0e9ce5">10</span>;</code>
<code><span style="color:#0e9ce5">echo</span> <span style="color:#dd1144">""</span>;</code><code><span style="color:#0e9ce5">echo</span> <span style="color:#dd1144">"**** Going to REBOOT NOW! ****"</span>;</code><code><span style="color:#0e9ce5">echo</span> <span style="color:#dd1144">""</span>;</code><code><span style="color:#0e9ce5">sleep</span> <span style="color:#0e9ce5">5</span>;</code><code><span style="color:#0e9ce5">sudo</span> reboot;</code></span>

这里需要解释两条命令。

 

 

storcli64 show
是查看当前系统的RAID卡基本信息,RH2288V5配的两个RAID卡会显示为第0块和第1块RAID控制器,M2 SSD所在的RAID卡为第1块。

storcli64 / c1 set jbod = on
是指将第1个RAID卡的jbod功能设置为on,即打开接了M2 SSD的RAID卡的JBOD功能。

 

 

storcli64主要程序,这个文件需要从storcli的包解压出来,从压缩包里面的ubuntu或Linux目录里面的deb / rpm包提取替代(可使用7zip来解压提取)。

ks_esxi.cfg为esxi自动启动部署用的,配RAID这个过程用不到,先创建备用。

3,准备使用PXE引导clonezilla。下载好clonezilla的ISO,将其解压到/ var / lib / tftpboot / images / clonezilla目录,然后将RHEL7的grubx64.efi到上述目录并创建grub的配置文件grub.cfg 。(至于为什么不直接使用clonezilla的ISO自带的grubx64.efi,是因为实测它自带的grubx64.efi无论如何都不认grub.cfg的配置文件,也可能是我放的路径不对吧)。

如果RHEL7是使用传统的非EFI模式安装的,那么就需要去RHEL7的ISO里面提取grubx64.efi,提取方法上一篇文章里面有写。然后把/etc/dhcp/dhcpd.conf里面定义的启动文件修改为:文件名“ images / clonezilla / grubx64.efi”。

 

<span style="color:#333333"><code>cp /boot/efi/EFI/redhat/grubx64.efi /<span style="color:#ca7d37">var</span>/lib/tftpboot/images/clonezilla</code><code>touch /<span style="color:#ca7d37">var</span>/lib/tftpboot/images/clonezilla/grub.cfg</code></span>

4,配置PXE引导clonezilla。grub.cfg的完整内容如下:

<span style="color:#333333"><code><span style="color:#ca7d37">set</span> <span style="color:#ca7d37">default</span>=<span style="color:#0e9ce5">0</span></code><code><span style="color:#ca7d37">set</span> <span style="color:#ca7d37">timeout</span>=<span style="color:#0e9ce5">3</span></code><code>menuentry <span style="color:#dd1144">"Clonezilla live (Default settings, VGA 1024x768)"</span>{</code><code>    linuxefi images/clonezilla/live/vmlinuz boot=live <span style="color:#ca7d37">union</span>=overlay username=<span style="color:#ca7d37">user</span> hostname=bionic config components noswap edd=<span style="color:#ca7d37">on</span> nomodeset locales= keyboard-layouts=<span style="color:#ca7d37">NONE</span> ocs_live_run=<span style="color:#dd1144">"/opt/jbod.sh"</span> ocs_live_batch=<span style="color:#dd1144">"no"</span> ip= net.ifnames=<span style="color:#0e9ce5">0</span> vmwgfx.enable_fbdev=<span style="color:#0e9ce5">1</span> <span style="color:#ca7d37">fetch</span>=tftp://<span style="color:#0e9ce5">192.168</span><span style="color:#0e9ce5">.3</span><span style="color:#0e9ce5">.1</span>/images/clonezilla/live/filesystem.squashfs ocs_preload=<span style="color:#dd1144">"mount -t nfs 192.168.3.1:/nfs/pxe /tmp/nfs"</span> vga=<span style="color:#0e9ce5">791</span></code><code>    initrdefi images/clonezilla/live/initrd.img}</code></span>

上面这些参数实际上是从clonezilla自带的grub.cfg修改而来的,需要解释的参数有如下几个(跟自带的grub.cfg一样的地方就不解释了):

 

 

ocs_live_run =“ / opt / jbod.sh”
这个是指clonezilla引导完成后直接自动执行/opt/jbod.sh,而不是自带的clonezilla备份恢复菜单。

fetch = tftp://192.168.3.1/images/clonezilla/live/filesystem.squashfs
这个是让clonezilla以tftp协议获取192.168.3.1/images/clonezilla/live/filesystem.squashfs文件,这个文件是上一步已经解压出来的,这个文件是用于提供liveOS的文件系统合并(即普通linux的根目录下面的所有文件打的包)。

ocs_preload =“ mount -t nfs 192.168.3.1:/nfs/pxe / tmp / nfs”
这个是指clonezilla引导完成之前先挂载192.168.3.1:/nfs/pxe的NFS目录到/ tmp / nfs,clonezilla会自动把ocs_preload跟在后面的NFS目录内的所有文件都到/ opt目录里面去,现在明白为什么jbod.sh脚本里面要用sudo / opt / storcli64了吧?

 

 

5,上述工作都准备好之后,启动或重启RHEL7虚拟机的dhcpd / xinetd / nfs服务,然后把20台服务器都接上网线(建议先只接唯一的一条用于DHCP + PXE的网线,其他网线先不要接),注意一定要跟上面的RHEL7虚拟机的网络要通,要让这些服务器获取到RHEL7虚拟机DHCP分配出来的IP地址。

然后就可以把20台服务器都启动,DHCP获取到地址之后会通过PXE使用tftp获取grubx64.efi引导文件和grub.cfg配置文件,然后引导grub,读取配置文件并按配好的内核参数引导clonezilla ,自动挂载RHEL7虚拟机的/ nfs / pxe目录并把该目录里的3个文件副本到/ opt中,然后会执行/opt/jbod.sh脚本,即称为storcli64将SSD置于RAID卡JBOD功能打开,最后自动重启服务器(机器自动重启之后仍然会继续从PXE引导并再次执行jbod.sh,这个不会对RAID配置有什么影响)。

以下部分是RHEL7虚拟机上的/ var / log / messages执行DHCP分配引导clonezilla的部分日志:

<span style="color:#333333"><code><span style="color:#0e9ce5">Mar</span> <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">21</span> RHEL76 dhcpd: DHCPDISCOVER from <span style="color:#0e9ce5">00</span>:0c:<span style="color:#0e9ce5">29</span>:4e:1a:<span style="color:#0e9ce5">31</span> via ens34</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">22</span> RHEL76 dhcpd: DHCPOFFER <span style="color:#0e9ce5">on</span> <span style="color:#0e9ce5">192.168.3.16</span> to <span style="color:#0e9ce5">00</span>:0c:<span style="color:#0e9ce5">29</span>:4e:1a:<span style="color:#0e9ce5">31</span> via ens34</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">24</span> RHEL76 dhcpd: DHCPREQUEST for <span style="color:#0e9ce5">192.168.3.16</span> (<span style="color:#0e9ce5">192.168.3.1</span>) from <span style="color:#0e9ce5">00</span>:0c:<span style="color:#0e9ce5">29</span>:4e:1a:<span style="color:#0e9ce5">31</span> via ens34</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">24</span> RHEL76 dhcpd: DHCPACK <span style="color:#0e9ce5">on</span> <span style="color:#0e9ce5">192.168.3.16</span> to <span style="color:#0e9ce5">00</span>:0c:<span style="color:#0e9ce5">29</span>:4e:1a:<span style="color:#0e9ce5">31</span> via ens34</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">24</span> RHEL76 xinetd[<span style="color:#0e9ce5">7426</span>]: START: tftp pid=<span style="color:#0e9ce5">8860</span> from=<span style="color:#0e9ce5">192.168.3.16</span></code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">24</span> RHEL76 in.tftpd[<span style="color:#0e9ce5">8861</span>]: Error code <span style="color:#0e9ce5">8</span>: User aborted the transfer</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">25</span> RHEL76 in.tftpd[<span style="color:#0e9ce5">8862</span>]: Client <span style="color:#0e9ce5">192.168.3.16</span> finished images/clonezilla/grubx64.efi</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">25</span> RHEL76 in.tftpd[<span style="color:#0e9ce5">8872</span>]: Client <span style="color:#0e9ce5">192.168.3.16</span> finished /images/clonezilla/grub.cfg</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">25</span> RHEL76 in.tftpd[<span style="color:#0e9ce5">8877</span>]: Client <span style="color:#0e9ce5">192.168.3.16</span> finished /images/clonezilla/grub.cfg</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">30</span> RHEL76 in.tftpd[<span style="color:#0e9ce5">8879</span>]: Client <span style="color:#0e9ce5">192.168.3.16</span> finished images/clonezilla/live/vmlinuz</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">39</span> RHEL76 in.tftpd[<span style="color:#0e9ce5">8880</span>]: Client <span style="color:#0e9ce5">192.168.3.16</span> finished images/clonezilla/live/initrd.img</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">45</span> RHEL76 dhcpd: DHCPDISCOVER from <span style="color:#0e9ce5">00</span>:0c:<span style="color:#0e9ce5">29</span>:4e:1a:<span style="color:#0e9ce5">31</span> via ens34</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">45</span> RHEL76 dhcpd: DHCPOFFER <span style="color:#0e9ce5">on</span> <span style="color:#0e9ce5">192.168.3.16</span> to <span style="color:#0e9ce5">00</span>:0c:<span style="color:#0e9ce5">29</span>:4e:1a:<span style="color:#0e9ce5">31</span> via ens34</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">45</span> RHEL76 dhcpd: DHCPREQUEST for <span style="color:#0e9ce5">192.168.3.16</span> (<span style="color:#0e9ce5">192.168.3.1</span>) from <span style="color:#0e9ce5">00</span>:0c:<span style="color:#0e9ce5">29</span>:4e:1a:<span style="color:#0e9ce5">31</span> via ens34</code><code>Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">45</span> RHEL76 dhcpd: DHCPACK <span style="color:#0e9ce5">on</span> <span style="color:#0e9ce5">192.168.3.16</span> to <span style="color:#0e9ce5">00</span>:0c:<span style="color:#0e9ce5">29</span>:4e:1a:<span style="color:#0e9ce5">31</span> via ens34Mar <span style="color:#0e9ce5">7</span> <span style="color:#0e9ce5">21</span>:<span style="color:#0e9ce5">19</span>:<span style="color:#0e9ce5">50</span> RHEL76 in.tftpd[<span style="color:#0e9ce5">8882</span>]: Client <span style="color:#0e9ce5">192.168.3.16</span> finished /images/clonezilla/live/filesystem.squashfs</code></span>

jbod.sh在clonezilla自动执行的结果大概如下图所示:

(截图为虚拟机内部测试运行的结果,由于没有RAID卡所以会报未找到,实际在服务器上跑的时候下面会输出JBOD使之类的日志)

图片

关于clonezilla的PXE引导说明,以及clonezilla支持的内核参数说明,可以参考如下两个官方文档:

https://clonezilla.org/livepxe.php 
https://clonezilla.org/fine-print-live-doc.php?path=clonezilla-live/doc/99_Misc/00_live-boot-parameters.doc

接下来就轮到使用PXE + Kickstart来批量自动部署ESXi了。

RAID配成JBOD之后,系统已经能认到SSD了,现在该批量部署ESXi了。

1,准备好esxi的ISO,把ISO里面的所有文件都放入RHEL7虚拟机的/ var / lib / tftpboot / images / esx60u3目录。然后把ISO自带的efi文件变成到当前目录。

<span style="color:#333333"><code>cd /<span style="color:#ca7d37">var</span>/lib/tftpboot/images/esxi60u3</code><code>cp efi/boot/bootx64.efi .</code></span>

2,编辑/var/lib/tftpboot/images/esx60u3/boot.cfg,这个文件是esxi引导efi的配置文件。

主要需要修改2个地方,第一个是把kernel =和modules =后面跟的内容的/全部去掉,modules里面里面的的/比较多,如果编辑用的是vim,可以用如下命令快速全部替换: %s g,或者用如下命令sed -i's g'/var/lib/tftpboot/images/esxi60u3/boot.cfg;第二个是添加kickstart路径的参数,在kernelopt = runweasel后面加上ks = nfs://192.168.3.1/nfs/pxe/ks_esxi.cfg,即让安装程序从192.168.3.1的/nfs/pxe/ks_esxi.cfg获取kickstart自动安装配置文件。

修改完之后保存,文件内容大概类似如下这样:

<span style="color:#333333"><code>bootstate=<span style="color:#0e9ce5">0</span></code><code>title=Loading ESXi installer</code><code>timeout=<span style="color:#0e9ce5">2</span></code><code>kernel=tboot.b00</code><code>kernelopt=runweasel ks=nfs://<span style="color:#0e9ce5">192.168</span>.<span style="color:#0e9ce5">3.1</span>/nfs/pxe/ks_esxi.cfg</code><code>modules=b.b00 --- jumpstrt.gz --- useropts.gz --- k.b00 --- chardevs.b00 --- a.b00 --- user.b00 --- uc_intel.b00 --- uc_amd.b00 --- sb.v00 --- s.v00 --- lsi_mr3.v00 --- lsi_msgp.v00 --- lsi_msgp.v01 --- bnxtnet.v00 --- net_tg3.v00 --- brcmfcoe.v00 --- elxnet.v00 --- ima_be2i.v00 --- lpfc.v00 --- scsi_be2.v00 --- i40en.v00 --- igbn.v00 --- ixgben.v00 --- concrete.v00 --- filetran.v00 --- fupb.v00 --- fwupdate.v00 --- immpasst.v00 --- pciinfo.v00 --- nmlx4_co.v00 --- nmlx4_en.v00 --- nmlx4_rd.v00 --- nmlx5_co.v00 --- qedentv.v00 --- qedf.v00 --- scsi_qed.v00 --- misc_cni.v00 --- net_bnx2.v00 --- net_bnx2.v01 --- net_cnic.v00 --- qlnative.v00 --- scsi_bnx.v00 --- scsi_bnx.v01 --- mtip32xx.v00 --- ata_pata.v00 --- ata_pata.v01 --- ata_pata.v02 --- ata_pata.v03 --- ata_pata.v04 --- ata_pata.v05 --- ata_pata.v06 --- ata_pata.v07 --- block_cc.v00 --- ehci_ehc.v00 --- emulex_e.v00 --- weaselin.t00 --- esx_dvfi.v00 --- esx_ui.v00 --- ima_qla4.v00 --- ipmi_ipm.v00 --- ipmi_ipm.v01 --- ipmi_ipm.v02 --- lsu_hp_h.v00 --- lsu_lsi_.v00 --- lsu_lsi_.v01 --- lsu_lsi_.v02 --- lsu_lsi_.v03 --- lsu_lsi_.v04 --- misc_dri.v00 --- net_e100.v00 --- net_e100.v01 --- net_enic.v00 --- net_forc.v00 --- net_igb.v00 --- net_mlx4.v00 --- net_mlx4.v01 --- net_nx_n.v00 --- net_vmxn.v00 --- nvme.v00 --- ohci_usb.v00 --- rste.v00 --- sata_ahc.v00 --- sata_ata.v00 --- sata_sat.v00 --- sata_sat.v01 --- sata_sat.v02 --- sata_sat.v03 --- sata_sat.v04 --- scsi_aac.v00 --- scsi_adp.v00 --- scsi_aic.v00 --- scsi_fni.v00 --- scsi_hps.v00 --- scsi_ips.v00 --- scsi_meg.v00 --- scsi_meg.v01 --- scsi_meg.v02 --- scsi_mpt.v00 --- scsi_mpt.v01 --- scsi_mpt.v02 --- scsi_qla.v00 --- uhci_usb.v00 --- vsan.v00 --- vsanheal.v00 --- vsanmgmt.v00 --- xhci_xhc.v00 --- tools.t00 --- lnvcusto.v00 --- xorg.v00 --- imgdb.tgz --- imgpayld.tgz</code><code>build=</code><code>updated=<span style="color:#0e9ce5">0</span></code></span>

3,修改esxi的kickstart配置文件/nfs/pxe/ks_esxi.cfg,内容很简单,这个配置只定义了接受用户协议,在第一块硬盘执行覆盖安装,设置root密码为abcd1234并在安装完成后自动重启。

<span style="color:#333333"><code>accepteula</code><code>install <span style="color:#dd1144">--firstdisk --overwritevmfs</span></code><code>rootpw <span style="color:#dd1144">abcd1234</span></code><code>reboot</code></span>

4,修改/etc/dhcp/dhcpd.conf,由原来的文件名“ images / clonezilla / grubx64.efi”改成文件名“ images / esxi60u3 / bootx64.efi”,然后重启dhcpd服务。dhcpd服务重启完之后,机器在clonezilla执行完jbod.sh重新启动之后就会开始自动获取esxi的efi引导文件,并开始自动进行esxi的批量安装部署了。

在安装完成之后服务器会自动重启,然后会自动引导刚安装完的esxi,因为安装esxi之后会生成esxi的efi引导项,服务器在没有引导项的时候才会从网卡PXE启动。

图片

最后来一下一下,这次实施主要是利用PXE,先引导一个实时模式的Linux自动运行storcli来修改RAID配置,然后利用PXE引导esxi安装程序通过kickstart进行自动esxi安装部署。

storcli的功能非常强大,这里中只用到了它开始RAID控制器jbod模式的功能,划分RAID配VD等这些都不在话下,有兴趣可以看一下broadcom官网的文档。

“ zhufeng的小站”授权转载

觉得本文有用,请转发或点击“在看”,让更多同行看到

  • 3
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
您好!对于在多硬件服务器部署ESXi的问题,您可以按照以下步骤进行操作: 1. 首先,确保您的硬件服务器符合ESXi的系统要求。可以查阅VMware官方文档以了解具体的硬件要求。 2. 在每硬件服务器上下载并安装ESXi操作系统。您可以从VMware官方网站上下载ESXi的安装映像文件,并根据指引进行安装。 3. 在每服务器上配置网络设置。您可以通过ESXi的管理界面配置网络适配器、IP地址、子网掩码等网络参数,以便服务器能够正常通信。 4. 配置存储。您可以将存储设备(如硬盘、SAN、NAS等)连接到服务器,并在ESXi中进行存储适配器的配置和数据存储的设置。 5. 配置虚拟机网络。在ESXi中,您可以创建和配置虚拟交换机和端口组,以便虚拟机能够进行网络通信。 6. 创建和配置虚拟机。在ESXi上,您可以通过虚拟机模板或者手动创建虚拟机,并为其分配所需的计算、内存和存储资源。 7. 在多服务器之间配置虚拟机的高可用性和负载均衡。您可以使用VMware vSphere功能,如vMotion和DRS,来实现虚拟机的迁移和负载均衡,以提高系统的可靠性和性能。 这些是部署ESXi在多硬件服务器上的一般步骤,具体操作可能会因您的环境和需求而有所不同。建议您在进行部署前仔细阅读相关文档,并参考VMware官方指南或向技术支持寻求帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值