前言
通过虚拟化技术,我们可轻松的增加或删除一台虚拟机。像hadoop技术,安装,配置,运维,管理都很复杂,如果能通过虚拟化技术,降低运维成本,是多么开心的一件事啊!设想一下,如果一个人能够管理1000个hadoop节点,那么小型公司也可以随随便便构建像百度,阿里一样的强大的计算集群环境。世界也许会更奇妙!
当然,本文并不是讲一个人如何管理1000个hadoop节点。但我会介绍一种方式,通过克隆虚拟机来增加Hadoop节点。也许在大家的实践操作中,就能做出一个人运维1000个节点集群的方案。
目录
系统环境介绍
克隆虚拟机
完成2个节点的hadoop集群
一. 系统环境介绍
我延续上篇文章的系统环境,让Hadoop跑在云端系列文章 之 创建Hadoop母体虚拟机
我们已成功地创建了Hadoop母体虚拟机c1。接下来,我们要用clone的方式创建c2,c3,c4,c5 ,4台克隆虚拟机。
二. 克隆虚拟机
在host中,打开虚拟机管理软件,查看c1的状态。
~ sudo virshvirsh # listId Name State----------------------------------------------------5 server3 running6 server4 running7 d2 running8 r1 running9 server2 running18 server5 running42 c1 running
c1正在运行中,由于c2之前已经创建,我们已c3来举例说明。
创建克隆体c3
~ sudo virt-clone --connect qemu:///system -o c1 -n c3 -f /disk/sdb1/c3.imgERROR Domain with devices to clone must be paused or shutoff.
关闭c1,并重新克隆
virsh # destroy c1Domain c1 destroyed~ sudo virt-clone --connect qemu:///system -o c1 -n c3 -f /disk/sdb1/c3.imgERROR A disk path must be specified to clone '/dev/sdb5'
分区硬盘引入的错误。(无比强大的google,已经找不到对这个错误的解释了)
接下的操作:
重新启动c1,注释/etc/fstab自动挂载/dev/vdb1的操作(自行解决)
卸载给c1分配的分区硬盘/dev/sdb5
~ edit c1-->
再次创建克隆体c3
~ sudo virt-clone --connect qemu:///system -o c1 -n c3 -f /disk/sdb1/c3.imgCloning c1.img 1% [ ] 47 MB/s | 426 MB 14:14 ETACloning c1.img | 40