1.从本地拷贝 100 个 100MB 的文件到 HDFS;
2.在文件拷贝过程中,停止主 NameNode 所在节点的 NameNode 进程,模 拟故障;
3.观察客户端日志文件发现故障;
2.在文件拷贝过程中,停止主 NameNode 所在节点的 NameNode 进程,模 拟故障;
3.观察客户端日志文件发现故障;
4.文件拷贝完成后,将 100 个文件复制到本地,检测文件的一致性;
1.首先生产一个100个100M的文件
dd if=~/CDH-5.7.1-1.cdh5.7.1.p0.11-el6.parcel of=/home/hadoop/t2.txt bs=100M count=1
或者
#!/bin/bash
for i in {1..100}
do
dd if=/dev/zero of=/home/hadoop/$i.txt bs=1M count=100;
hdfs dfs -put /home/hadoop/$i.txt /datatmp
done
2.在执行脚本的过程中杀掉主机的一个namenode进程
3.观察客户端日志并且看日志HA的模式是否备切换成主了
[hadoop@masternode2 ~]$ hdfs haadmin -getServiceState mnn
16/11/09 15:44:21 INFO ipc.Client: Retrying connect to server: masternode1/192.168.237.230:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=1, sleepTime=1000 MILLISECONDS)