Hadoop完全分布

注意:NameNode和SecondaryNameNode不要安装在同一台服务器

(2NN备份元数据的,如果放在一台机器上,机器宕机元数据就拿不到)

注意:ResourceManager也很消耗内存,不要和NameNode、SecondaryNameNode配置在同一台机器上。

(1)核心配置文件
配置:hadoop-env.sh(在/opt/module/hadoop-3.1.3/etc/hadoop目录下)
Linux系统中获取JDK的安装路径:
[soft863@ hadoop100 ~]# echo $JAVA_HOME
/opt/module/jdk1.8.0_212
在hadoop-env.sh文件中修改JAVA_HOME 路径:
export JAVA_HOME=/opt/module/jdk1.8.0_212
配置core-site.xml
cd $HADOOP_HOME/etc/hadoop
vim core-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>fs.defaultFS</name>
 <value>hdfs://hadoop100:9820</value>
</property>
<!-- hadoop.data.dir是自定义的变量,下面的配置文件会用到 -->
    <property>
        <name>hadoop.data.dir</name>
        <value>/opt/module/hadoop-3.1.3/data</value>
    </property>
</configuration>
	(2)HDFS配置文件
配置hdfs-site.xml
vim hdfs-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <!-- namenode数据存放位置 -->
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file://${hadoop.data.dir}/name</value>
  </property>
 <!-- datanode数据存放位置 -->
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file://${hadoop.data.dir}/data</value>
  </property>
<!-- secondary namenode数据存放位置 -->
    <property>
    <name>dfs.namenode.checkpoint.dir</name>
    <value>file://${hadoop.data.dir}/namesecondary</value>
  </property>
<!-- datanode重启超时时间是30s,解决兼容性问题,跳过 -->
  <property>
    <name>dfs.client.datanode-restart.timeout</name>
    <value>30</value>
  </property>
<!-- 设置web端访问namenode的地址 -->
<property>
    <name>dfs.namenode.http-address</name>
    <value>hadoop100:9870</value>
</property>
<!-- 设置web端访问secondary namenode的地址 -->
  <property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>hadoop102:9868</value>
  </property>
</configuration>
(3)YARN配置文件
配置yarn-site.xml
vim yarn-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop101</value>
    </property>
    <property>
        <name>yarn.nodemanager.env-whitelist</name>    <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
    </property>
</configuration>
(4)MapReduce配置文件
配置mapred-site.xml
vim mapred-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>

集群分发

把module目录拷贝到hadoop100:

[root@hadoop102 opt]# cd /opt

[root@hadoop102 opt]# scp -r module/ hadoop100:/opt/

把module目录拷贝到hadoop101:

[root@hadoop102 opt]# rsync -av module hadoop101:/opt/

把 /etc/profile拷贝到hadoop100 hadoop101

[root@hadoop102 opt]# rsync -av /etc/profile hadoop101:/etc

[root@hadoop102 opt]# rsync -av /etc/profile hadoop100:/etc

在hadoop100和hadoop101上分别要进行source /etc/profile

[root@hadoop100 opt]# source /etc/profile

[root@hadoop101 opt]# source /etc/profile

分布式集群格式化

分布式集群第一次启动之前要格式化

格式化之前,要把三个服务器上的hadoop安装目录下的 data目录和logs目录都删掉

[root@hadoop101 opt]# cd /opt/module/hadoop-3.1.3

[root@hadoop101 opt]# rm -rf data

[root@hadoop101 opt]# rm -rf logs

在指定namenode运行的服务器上执行格式化:

(namenode指定在hadoop100上运行的)

[root@hadoop100 hadoop-3.1.3]# hdfs namenode -format

 一、启动4个进程

1、namenode

2、datanode

1、2使用hdfs启动 代码:

hdfs  --daemon  start  namenode/datenode
3、resourcemanager

4、nodemanager

3、4使用yarn启动 代码:

yarn  --daemon  start  resourcemanager/nodemanager

二、浏览器登录

http://自己ip地址(192.108.1.100):8088

http://自己ip地址(192.108.1.100):9870

(不通的两个原因:1、查看配置;2、关闭防火墙)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Hadoop完全分布式测试是指在一个完全分布式的Hadoop集群中进行的测试。这种测试可以模拟真实的生产环境,并检查系统在高负载和大数据量情况下的性能和稳定性。 要进行Hadoop完全分布式测试,需要先搭建一个完全分布式的Hadoop集群。这个集群通常由多个节点组成,每个节点都有自己的Hadoop组件,如NameNode、DataNode、ResourceManager和NodeManager等。 在测试之前,需要准备一些测试数据,这些数据应该足够大,以便能够测试系统的处理能力和容错性。然后,可以使用Hadoop的MapReduce框架来编写测试程序,并将其提交到集群上运行。测试程序可以模拟各种场景,比如处理大文件、并发读写等。 在测试过程中,可以监控Hadoop集群的各种指标,如CPU使用率、内存使用率、网络带宽等,以评估系统的性能和稳定性。如果发现问题,可以通过日志分析等方式来定位和解决问题。 总的来说,Hadoop完全分布式测试是一个重要的测试环节,可以帮助我们发现和解决潜在的性能和稳定性问题,从而提高系统的可靠性和可用性。 ### 回答2: Hadoop完全分布式测试是指通过搭建Hadoop分布式集群并运行一系列测试,来验证Hadoop系统在分布式环境下的功能和性能。Hadoop是一个开源的大数据处理框架,具有良好的可扩展性和容错性,能够处理大规模的数据。 在进行完全分布式测试之前,需要搭建一个Hadoop分布式集群。一个典型的Hadoop集群由一个主节点(Master Node)和多个从节点(Slave Node)组成。主节点负责调度任务和管理整个集群的资源,而从节点负责执行具体的计算任务。 完成集群搭建后,对Hadoop完全分布式功能进行测试。这些测试可以包括以下方面: 1. 文件系统测试:测试Hadoop分布式文件系统(HDFS)的读写性能和可靠性。可以通过上传、下载、删除和复制大文件来验证文件系统的功能。 2. MapReduce测试:测试Hadoop分布式计算框架。可以编写一些简单的MapReduce程序,计算集群中的数据并验证计算结果的正确性。 3. 容错性测试:在测试过程中模拟集群的异常情况,如节点故障或网络中断,观察Hadoop系统的容错能力和自动恢复机制。 4. 性能测试:通过测试集群的吞吐量、并发性能和响应时间来评估Hadoop的性能。可以使用一些负载测试工具来模拟大量的并发请求。 5. 扩展性测试:逐步增加从节点的数量,测试集群的可扩展性和负载均衡性。观察集群中任务的分配情况和执行效率。 通过以上一系列的完全分布式测试,可以对Hadoop系统的功能、性能和可靠性进行全面评估。这些测试结果对于优化集群配置和改进应用程序的开发都具有重要意义。 ### 回答3: Hadoop完全分布式测试是指在Hadoop分布式计算环境中对系统进行全面的测试和评估。在这个过程中,会模拟不同条件下的数据处理和存储,用于验证Hadoop系统的性能、稳定性和可扩展性。 首先,Hadoop完全分布式测试需要模拟和创建一个具有多个节点的分布式计算集群。这个集群中的每个节点都运行着Hadoop的核心组件,包括HDFSHadoop分布式文件系统)和YARN(Yet Another Resource Negotiator)。 接下来,测试人员会使用不同类型和规模的数据集来测试Hadoop系统的读写和处理能力。这些数据可以是结构化的、半结构化的或非结构化的,用于模拟真实的业务场景。在测试中,会模拟并记录Hadoop系统在不同负载条件下的处理速度、资源利用率和数据可靠性。 此外,Hadoop完全分布式测试还可以模拟和评估系统在故障和容错处理方面的表现。例如,测试人员可能会模拟某个节点的故障,并观察系统如何自动识别和修复这个故障。通过这样的测试,可以验证Hadoop系统在节点故障或网络中断等情况下的容错能力。 最后,测试人员会收集和分析测试结果,并对系统性能和稳定性进行评估。他们将根据不同的指标,如处理时间、错误率和数据可用性,来评估Hadoop系统的表现,并提出改进建议。 总之,Hadoop完全分布式测试是一个全面验证Hadoop系统性能和稳定性的过程。通过模拟真实场景和各种负载条件,这种测试能够帮助开发人员和系统管理员发现和解决潜在的问题,并提供改进系统的思路。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

外呼小胖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值