Hadoop学习笔记(5)–完全分布式Hadoop 完全分布式

1、Namenode:储存文件的元数据。



2、Datanode:在本地文件系统储存文件快数据,以及块数据的效验和。



3、Secondary Namenode :每个隔一段时间对Namenode元数据备份

hadoop100hadoop101hadoop102
HDFSNamenode DatanodeDatanodeSecondary Namenode
YARNnodemanagerResourceManger
nodemanager

nodemanager

启动:

1)启动hdfs相关
		hdfs --daemon start namenode
		hdfs --daemon start datanode
2)启动yarn相关
		yarn --daemon start resourcemanager
		yarn --daemon start nodemanage



YARN架构

ResourceManager(RM)主要作用:

处理客户端的请求

启动或监控ApplicationMaster

资源的分配调度



集群配置



核心配置文件

配置:hadoop-env.sh(在/opt/module/hadoop-3.1.3/etc/hadoop目录下)

Linux系统中获取JDK的安装路径:

[soft863@ hadoop100 ~]# echo $JAVA_HOME

/opt/module/jdk1.8.0_212

在hadoop-env.sh文件中修改JAVA_HOME 路径:/ 加内容 查寻

export JAVA_HOME=/opt/module/jdk1.8.0_212



1.配置core-site.xml namenode

cd $HADOOP_HOME/etc/hadoop

vim core-site.xml

文件内容如下:

<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

 

<configuration>

  <property>

   <name>fs.defaultFS</name>

   <value>hdfs://hadoop100:9820</value>

</property>

 

<!-- hadoop.data.dir是自定义的变量,下面的配置文件会用到 -->

  <property>

    <name>hadoop.data.dir</name>

    <value>/opt/module/hadoop-3.1.3/data</value>

  </property>

</configuration>



2.HDFS配置文件 datanode

配置hdfs-site.xml
vim hdfs-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
 <!-- namenode数据存放位置 -->
<property>
  <name>dfs.namenode.name.dir</name>
  <value>file://${hadoop.data.dir}/name</value>
 </property>

 <!-- datanode数据存放位置 -->
 <property>
  <name>dfs.datanode.data.dir</name>
  <value>file://${hadoop.data.dir}/data</value>
 </property>

 <!-- secondary namenode数据存放位置 -->
  <property>
  <name>dfs.namenode.checkpoint.dir</name>
<value>file://${hadoop.data.dir}/namesecondary</value>
 </property>

 <!-- datanode重启超时时间是30s,解决兼容性问题,跳过 -->
 <property>
  <name>dfs.client.datanode-restart.timeout</name>
  <value>30</value>
 </property>

 <!-- 设置web端访问namenode的地址 -->
<property>
  <name>dfs.namenode.http-address</name>
  <value>hadoop100:9870</value>
</property>

 <!-- 设置web端访问secondary namenode的地址 -->
 <property>
  <name>dfs.namenode.secondary.http-address</name>
  <value>hadoop102:9868</value>
 </property>
</configuration>



3.YARN配置文件

配置yarn-site.xml
vim yarn-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

 

<configuration>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop101</value>
  </property>
  <property>
    <name>yarn.nodemanager.env-whitelist</name>
  <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
  </property>
</configuration>

4.MapReduce配置文件

配置mapred-site.xml
vim mapred-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

 
<configuration>
 <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
 </property>
</configuration>



ssh免密登录



1、在每个节点生成公钥和私钥,并拷贝



Hadoop1000:



生成公钥和私钥

[root@hadoop100] ssh-keygen -t rsa

然后敲(三个回车)

将公钥拷贝到要免密登录的目标机器上

[root@hadoop100] ssh-copy-id hadoop100

[root@hadoop100] ssh-copy-id hadoop101

[root@hadoop100] ssh-copy-id hadoop102

集群分发

scp -r(递归)(全拷贝)

rsync -av (差异化拷贝)

把/etc/hadoop/目录拷贝到hadoop101:

[root@hadoop100 opt]# cd /opt

[root@hadoop100 opt]#  scp -r hadoop/ root@hadoop101:/opt/module/hadoop-3.1.3/etc/

把/etc/hadoop/目录拷贝到hadoop102:

[root@hadoop100 opt]# scp -r hadoop/ root@hadoop102:/opt/module/hadoop-3.1.3/etc/

 
把 /etc/profile拷贝到hadoop100 hadoop101

[root@hadoop102 opt]# rsync -av /etc/profile hadoop101:/etc

[root@hadoop102 opt]# rsync -av /etc/profile hadoop100:/etc


在hadoop100和hadoop101上分别要进行source /etc/profile

[root@hadoop100 opt]# source /etc/profile

[root@hadoop101 opt]# source /etc/profile

分布式集群格式化

分布式集群第一次启动之前要格式化

格式化之前,要把三个服务器上的hadoop安装目录下的 data目录和logs目录都删掉

[root@hadoop101 opt]# cd /opt/module/hadoop-3.1.3

[root@hadoop101 opt]# rm -rf data

[root@hadoop101 opt]# rm -rf logs

 

在指定namenode运行的服务器上执行格式化:

(namenode指定在hadoop100上运行的)

[root@hadoop1000 hadoop-3.1.3]# hdfs namenode –format

用脚本启动集群

1、修改hadoop配置文件

hadoop100上的start-dfs.sh 和stop-dfs.sh 文件最上边添加几行数据

[root@hadoop100] cd /opt/module/hadoop-3.1.3/sbin

[root@hadoop100] vi start-dfs.sh

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

在 start-yarn.sh 和 stop-yarn.sh文件最上方添加几行数据

[root@hadoop100] vi start-yarn.sh

[root@hadoop100] vi stop-yarn.sh

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

hadoop100上修改workers:

[root@hadoop100] cd /opt/module/hadoop-3.1.3/etc/hadoop

[root@hadoop100] vi workers

hadoop100

hadoop101

hadoop102

把上面的修改同步到hadoop101、hadoop102上:

[root@hadoop100] rsync -av /opt/module/hadoop-3.1.3/sbin/ hadoop101:/opt/module/hadoop-3.1.3/sbin/

 

[root@hadoop100] rsync -av /opt/module/hadoop-3.1.3/sbin/ hadoop102:/opt/module/hadoop-3.1.3/sbin/

 

[root@hadoop100] rsync -av /opt/module/hadoop-3.1.3/etc/hadoop/ hadoop101:/opt/module/hadoop-3.1.3/etc/hadoop/

 

[root@hadoop100] rsync -av /opt/module/hadoop-3.1.3/etc/hadoop/ hadoop102:/opt/module/hadoop-3.1.3/etc/hadoop/

启动停止集群

启动集群:

如果集群上已经启动hadoop相关程序,可以先执行停止。

在hadoop100上执行以下脚本,用来启动hdfs:

[root@hadoop100] start-dfs.sh

在hadoop101上执行以下脚本,用来启动yarn:

[root@hadoop101] start-yarn.sh

停止集群:

在hadoop100上执行以下脚本,用来停止hdfs:

[root@hadoop100] stop-dfs.sh

在hadoop101上执行以下脚本,用来停止yarn:

[root@hadoop101] stop-yarn.sh

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值