1.怎么克隆之前的两个节点虚拟机?
https://jingyan.baidu.com/article/e73e26c093cc4b24acb6a761.html
2.Hbase和MongoDB集群至少要几个节点?
https://blog.csdn.net/qq_34758475/article/details/84337320
一个master,两个slave即可
3.多克隆了一个slave,此slave要改什么才能跑起来原来的hadoop和spark
3.1hadoop 要改
新加slave节点和master都要改
修改hostname
修改各个节点的主机名(所有节点上)
sudo gedit /etc/hostname #master改为master,slave为slave1
sudo gedit /etc/hosts #修改自己所用节点的IP映射
修改静态ip
sudo gedit /etc/network/interfaces
若改后ip没变
sudo ifconfig eth0 down
sudo ifconfig eth0 up
改文件 hdfs-site.xml,dfs.replication 有几个 Slave 节点,设为几,要在集群所有点改
修改slave文件
删除temp目录,如果以前跑过hdfs的话
cd /usr/BigData
sudo rm -r ./hadoop/tmp # 删除 Hadoop 临时文件
sudo rm -r ./hadoop/logs/* # 删除日志文件
3.2Spark要改
slaves文件 all
修改IP,只是增加的节点
sudo gedit ./conf/spark-env.sh