本文前半部分继续配置hadoop,后半部分启动hadoop
书接上文
咱们继续配置咱的hadoop
第七部分 hadoop安装
hdfs-site.xml
先进入此目录
进入hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/yumoyao/hadoop/hadoop/tmp/dfs/name</value>
</property>
configuration>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/yumoyao/hadoop/hadoop/tmp/dfs/data</value>
</property>
mapred-site.xml
因为目录中的此配置文件是范式文件,所以我们需要现对其改名
mv mapred-site.xml.template mapred-site.xml
<name>mapreduce.framework.name</name>
<value>yarn</value>
yarn-site.xml
进入yarn-site.xml
<property>
<name>yarn.resourcemanager.address</name>
<value>node-1:8032</value>
</property>
第八部分 hadoop启动
1.格式化hadoop
出现successfully即成功
2.启动守护进程
验证所有的守护文件是否都已经开启
jps使查看java接口的进程号
如果有6个,分别是
Jps
SecondaryNameNode
NameNode
NodeManager
DataNode
ResourceManager
则伪分布式hadoop配置成功!
如果有人说,我想用真分布式的hadoop,怎么办呢?
第九部分 真分布式hadoop
1.先克隆虚拟机
按此方法创建两个克隆,都打开
进入slaves
2.把里面的东西删掉,换成克隆机的名字
打开node-2虚拟机,将其主机名改为node-2
和上面一样,也改写slaves,这里就不截图啦
3.删除家目录下的.ssh文件夹
重启
注意此时我的名字已经改过来了
4.生成公私钥
ssh-keygen -t rsa
5.设置host
6.复制node-2和node-3公钥,到node-1上.
用cat命令合成三个公钥,输出到authorized_keys文件
cat node12 node3 > authorized_keys
将authorized_keys文件复制到node-2和node-3的/home/yumoyao/.ssh目录下
最后运行命令
start-all.sh