1.用virtual box软件安装linux虚拟机并运行
2.右键点无线网图标,更改适配器配置
3.VirtualBox Host-only Network为本机和虚拟机链接的虚拟网卡
4. 右击虚拟网卡=》属性=》Internet协议版本4(TCP/IPV4),查看网卡IP地址192.168.56.1
5.进入虚拟机执行vim /etc/sysconfig/network-scripts/enp0s3;剩下TYPE=Ethernet,删掉多余内容
添加ip地址:IPADDR=192.168.56.100
子网掩码:NETMASK=255.255.255.0
6.存盘退出
7.配置网关 vim /etc/sysconfig/network
8.删除Created by anaconda前的#
NETWORKING=yes
GATAWAY=192.168.56.1
9.修改主机名为master
hostnamectl sethost-name master
10.重启网络
systemctl restart network
11.ping 192.168.56.1验证网络配置
12.用xshell远程登录linux
13.上传jdk和hadoop的tar包并解压安装
14.进入hadoop的etc目录
15.在hadoop-env.sh,告诉hadoop jdk目录
export JAVA_HOME=xxxxxxxx
16.增加hadoop执行命令的路径加到环境变量vim /etc/profile
export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
source /etc/profile
17.shutdown now 关闭虚拟机
18.再复制三台虚拟机
更改主机名slave1/2/3
更改ip地址192.168.56.101/102/103,重启网络,ping确认相互之间联通
19.关闭四台虚拟机的防火墙
systemctl stop firewalld
20.disable防火墙
systemctl disable firewalld
21.配置四台机的core-site.xml(用于让所有机器知道master位于哪台机器哪个端口,所有机器之间通过hdfs协议网络连接)
vim core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
22.配置hdfs文件和临时数据存储目录到/var/hadoop
vim core-site.xml
<name>hadoop.tmp.dir</name>
<value>/var/hadoop</value>
23.修改ip对应机器名
vim /etc/hosts
192.168.56.100 master
192.168.56.101 slave1
xxxxxxxxxxxxx slave2
xxxxxxxxxxxxx slave3
24.格式化namenode
hdfs namenode -format
25.启动namenode
hadoop-daemon.sh start namenode
26.启动datanode
hadoop-daemon.sh start datanode
27.jps命令查看进程
28.192.168.56.100:50070查看web页面
补充:
1.配置master管理的节点
vim slaves
slave1
slave2
slave3
2.启动hdfs
start-dfs.sh
3.配置副本数和巡检周期
vim hdfs-site.xml
<name>dfs.replication</name>
<value>2</value>
<name>dfs.namenode.heartbeat.recheck.interval</name>
<value>10000</value>
4.重启hdfs生效
stop-dfs.sh
start-dfs.xml