局域网下连接其他电脑的HDFS集群

你还在为内存不够用而发愁?
感觉不感觉台式机用着不顺手?

参看本教程只需四步让你开发的web项目不再依赖自己的HDFS集群
本文详细介绍自己电脑上开发的项目如何连接其他机器的HDFS集群
最终成果:
团队内共用一个HDFS集群开发项目
条件:
同一局域网内

第一步:

参看我的局域网下用其他电脑连接VM虚拟机方法
这个是必须的,如果你会了那可以跳过

第二步:

学会怎么配置虚拟网路之后我们看一下这个配置文件
hdfs-site.xml

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!--
  Licensed under the Apache License, Version 2.0 (the "License");
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an "AS IS" BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
-->

<!-- Put site-specific property overrides in this file. -->

<configuration>
	<property>
		<name>dfs.nameservices</name>
 		<value>mycluster</value>
 	</property>
 	<property>
 		<name>dfs.ha.namenodes.mycluster</name>
 		<value>nn1,nn2</value>
 	</property>
        <property>  
		 <name>dfs.namenode.rpc-address.mycluster.nn1</name>
                 <value>node01:8020</value>
        </property>
	<property>
       		 <name>dfs.namenode.rpc-address.mycluster.nn2</name>     		                
       		 <value>node02:8020</value>
       	</property>
	<property>
             <name>dfs.namenode.http-address.mycluster.nn1</name>
      		 <value>node01:50070</value>
        </property>
        <property>
        	<name>dfs.namenode.http-address.mycluster.nn2</name>
                <value>node02:50070</value>
 	</property>
 	<property>
 		<name>dfs.namenode.shared.edits.dir</name>
 		<value>qjournal://node01:8485;node02:8485;node03:8485/mycluster</value>
 	</property>
	<property>
                <name>dfs.journalnode.edits.dir</name>
                <value>/var/abc/hadoop/ha/jn</value>
        </property>
        <property>
 	       <name>dfs.client.failover.proxy.provider.mycluster</name>  	
 	       <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
 	</property>
        <property>
               <name>dfs.ha.fencing.methods</name>
               <value>sshfence</value>
        </property>
        <property>
               <name>dfs.ha.fencing.ssh.private-key-files</name>
               <value>/root/.ssh/id_rsa</value>
        </property>
        <property>
 	       <name>dfs.ha.automatic-failover.enabled</name>
               <value>true</value>
        </property>

</configuration>

第三步 修改虚拟机和本机的Ip端口映射

可以看到上面有许多端口号,是虚拟机的端口.我们去VMware修改这些端口的映射
修改方法参看:局域网下用其他电脑连接VM虚拟机方法
在这里插入图片描述
如此一来我们就把虚拟机node01的50070端口映射为本机的50071端口下了,同样的我们将上面代码所有的端口全部用本机端口映射一遍,
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这里就不全部贴出来了,修改完成之后

第四步 修改配置文件

为本机的Ip加对应的端口号

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!--
  Licensed under the Apache License, Version 2.0 (the "License");
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an "AS IS" BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
-->

<!-- Put site-specific property overrides in this file. -->

<configuration>
	<property>
		<name>dfs.nameservices</name>
 		<value>mycluster</value>
 	</property>
 	<property>
 		<name>dfs.ha.namenodes.mycluster</name>
 		<value>nn1,nn2</value>
 	</property>
        <property>  
		 <name>dfs.namenode.rpc-address.mycluster.nn1</name>
                 <value>172.17.36.93:18020</value>
        </property>
	<property>
       		 <name>dfs.namenode.rpc-address.mycluster.nn2</name>     		                
       		 <value>172.17.36.93:28020</value>
       	</property>
	<property>
             <name>dfs.namenode.http-address.mycluster.nn1</name>
      		 <value>172.17.36.93:50073</value>
        </property>
        <property>
        	<name>dfs.namenode.http-address.mycluster.nn2</name>
                <value>172.17.36.93:50072</value>
 	</property>
 	<property>
 		<name>dfs.namenode.shared.edits.dir</name>
 		<value>qjournal://172.17.36.93:18485;172.17.36.93:28485;172.17.36.93:38485/mycluster</value>
 	</property>
	<property>
                <name>dfs.journalnode.edits.dir</name>
                <value>/var/abc/hadoop/ha/jn</value>
        </property>
        <property>
 	       <name>dfs.client.failover.proxy.provider.mycluster</name>  	
 	       <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
 	</property>
        <property>
               <name>dfs.ha.fencing.methods</name>
               <value>sshfence</value>
        </property>
        <property>
               <name>dfs.ha.fencing.ssh.private-key-files</name>
               <value>/root/.ssh/id_rsa</value>
        </property>
        <property>
 	       <name>dfs.ha.automatic-failover.enabled</name>
               <value>true</value>
        </property>

</configuration>

到这里还没完,还有一个配置文件需要修改
core-site.xml
同样的操作,将原来2181端口映射为本机的端口,修改配置文件为

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!--
  Licensed under the Apache License, Version 2.0 (the "License");
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an "AS IS" BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
-->

<!-- Put site-specific property overrides in this file. -->

<configuration>

	<property> 
		<name>fs.defaultFS</name>
      		<value>hdfs://mycluster</value>
      </property>
      <property>
         	<name>ha.zookeeper.quorum</name>
         	<value>172.17.36.93:21812,172.17.36.93:21813,172.17.36.93:21814</value>
      </property>


</configuration>

完成上述操作后在本机启动你的web项目已经和原来一样可以用了
但是用其他电脑运行web项目仍然报404什么原因呢?
答案是本机的防火墙需要放出刚才设置的那些端口,或者直接将防火墙关闭
在这里插入图片描述
如此一来,在同一局域网下的所有电脑,只要带着你修改后的配置文件,就可以访问你的HDFS集群了.

感谢您的浏览

### 回答1: 要在两台局域网PC上搭建Hadoop集群,需要按照以下步骤进行操作: 1. 配置网络:确保两台PC在同一个局域网内,可以通过路由器或交换机连接它们,并且给每台PC分配一个独立的IP地址。 2. 安装Java:在每台PC上都需要安装Java Development Kit(JDK),并配置Java环境变量。 3. 下载Hadoop:从Apache Hadoop的官方网站上下载适用于Windows系统的Hadoop二进制文件。 4. 配置Hadoop:解压下载的Hadoop二进制文件,并在每台PC上修改hadoop-env.cmd文件,设置JAVA_HOME环境变量。 5. 配置Hadoop集群:在其中一台PC上作为主节点(NameNode),编辑core-site.xml和hdfs-site.xml配置文件。在另一台PC上作为从节点(DataNode),也编辑core-site.xml和hdfs-site.xml配置文件。确保在配置文件中正确指定各节点的IP地址和端口号。 6. 启动Hadoop集群:首先在主节点上启动Hadoop集群的NameNode和ResourceManager。然后在从节点上启动DataNode和NodeManager。可以通过命令行运行start-dfs.cmd和start-yarn.cmd启动Hadoop集群。 7. 验证集群:打开浏览器,输入主节点IP地址和端口号来访问Hadoop的Web界面。确认Hadoop集群的运行状态以及每个节点的连接状态。 通过以上步骤,可以在两台局域网PC上成功搭建Hadoop集群。注意要保持PC的网络连接稳定,并适当调整Hadoop的配置文件以适应实际需求。 ### 回答2: 搭建一个基于Windows的Hadoop集群需要按照以下步骤进行操作: 1.安装Java:Hadoop是基于Java开发的,所以首先需要在两台PC上安装Java运行环境。确保PC上已经安装了合适版本的Java,并将Java的环境变量正确设置。 2.下载Hadoop:从Apache官方网站上下载最新的Hadoop版本,并将其解压到一个目录中。 3.配置系统环境变量:在系统环境变量中添加一下两个变量: - HADOOP_HOME: Hadoop解压目录的路径 - PATH:添加% HADOOP_HOME% \ bin 4.配置Hadoop文件:进入Hadoop解压目录的`etc/hadoop`目录,修改以下配置文件: - core-site.xml:设置Hadoop的核心配置,如hadoop.tmp.dir和fs.defaultFS。 - hdfs-site.xml:设置HDFS配置,如dfs.replication和dfs.namenode.name.dir。 - yarn-site.xml:设置YARN配置,如yarn.nodemanager.aux-services和yarn.resourcemanager.hostname。 5.配置主机文件:进入Hadoop解压目录的`etc/hadoop`目录,编辑`slaves`文件,列出所有作为集群节点的PC的主机名或IP地址。 6.复制配置文件:将Hadoop解压目录的`etc/hadoop`目录复制到所有其他集群节点的相同位置。 7.启动Hadoop服务:在一个节点上启动Hadoop服务,打开命令行窗口并输入命令:`start-all.cmd`,这会启动HDFS和YARN服务。 8.测试Hadoop集群:打开Web浏览器,输入`http://<节点IP地址>:50070`,可以查看Hadoop的NameNode状态;输入`http://<节点IP地址>:8088`,可以查看YARN的ResourceManager状态。 重复以上步骤,将另一台PC配置为另一个节点。现在你已经成功搭建了一个基于Windows的Hadoop集群
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值