【Hadoop】在笔记本虚拟机上部署Hadoop集群后运行Wordcount程序报错Connection refused

Hadoop版本是Apache版本3.1.4,在master节点运行wordcount程序

[root@centos1 usr]# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jar wordcount /wordcount/input /wordcount/output

报错内容如下,出现了Connection refused。

2023-03-02 06:35:57,797 INFO mapreduce.Job: Task Id : attempt_1677765855251_0001_r_000000_2, Status : FAILED
Container launch failed for container_1677765855251_0001_01_000006 : java.net.ConnectException: Call From centos1/192.168.20.101 to localhost:40146 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
	at sun.reflect.GeneratedConstructorAccessor31.newInstance(Unknown Source)
	at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
	at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
	at org.apache.hadoop.net.NetUtils.wrapWithMessage(NetUtils.java:831)
	at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:755)
	at org.apache.hadoop.ipc.Client.getRpcResponse(Client.java:1566)
	at org.apache.hadoop.ipc.Client.call(Client.java:1508)
	at org.apache.hadoop.ipc.Client.call(Client.java:1405)
	at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:233)
	at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:118)
	at com.sun.proxy.$Proxy84.startContainers(Unknown Source)
	at org.apache.hadoop.yarn.api.impl.pb.client.ContainerManagementProtocolPBClientImpl.startContainers(ContainerManagementProtocolPBClientImpl.java:128)
	at sun.reflect.GeneratedMethodAccessor12.invoke(Unknown Source)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
	at java.lang.reflect.Method.invoke(Method.java:498)
	at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:422)
	at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeMethod(RetryInvocationHandler.java:165)
	at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invoke(RetryInvocationHandler.java:157)
	at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeOnce(RetryInvocationHandler.java:95)
	at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:359)
	at com.sun.proxy.$Proxy85.startContainers(Unknown Source)
	at org.apache.hadoop.mapreduce.v2.app.launcher.ContainerLauncherImpl$Container.launch(ContainerLauncherImpl.java:160)
	at org.apache.hadoop.mapreduce.v2.app.launcher.ContainerLauncherImpl$EventProcessor.run(ContainerLauncherImpl.java:394)
	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
	at java.lang.Thread.run(Thread.java:750)
Caused by: java.net.ConnectException: Connection refused
	at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
	at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:715)
	at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
	at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:531)
	at org.apache.hadoop.ipc.Client$Connection.setupConnection(Client.java:699)
	at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:812)
	at org.apache.hadoop.ipc.Client$Connection.access$3800(Client.java:413)
	at org.apache.hadoop.ipc.Client.getConnection(Client.java:1636)
	at org.apache.hadoop.ipc.Client.call(Client.java:1452)
	... 19 more

发现连接localhost:40146端口失败,想到是不是最大句柄没设置。

[root@centos1 usr]# ulimit -n
1024

修改为65535还是不行

[root@centos1 usr]# ulimit -n 65535

索性不使用hostname了,修改core-site.xml,mapred-site.xml,yarn-site.xml中出现hostname的地方都使用IP地址替换,重新format了namenode,然后重启集群。再次运行成功。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 要在Hadoop平台上部署WordCount程序,需要按照以下步骤进行操作: 1. 准备Hadoop环境:安装Hadoop并配置好环境变量。 2. 准备WordCount程序:编写WordCount程序并打包成jar文件。 3. 将输入文件上传到HDFS:使用hadoop fs -put命令将输入文件上传到HDFS中。 4. 运行WordCount程序:使用hadoop jar命令运行WordCount程序,指定输入文件和输出文件的路径。 5. 查看输出结果:使用hadoop fs -cat命令查看输出文件的内容,确认WordCount程序是否运行成功。 以上是在Hadoop平台上部署WordCount程序的基本步骤,具体操作可以参考Hadoop官方文档或相关教程。 ### 回答2: Hadoop是一个分布式计算平台,它在处理大数据集方面具有很强的优势。WordCount程序Hadoop平台上一个非常简单而又常用的样例程序,它的实现过程可以让初学者更好地了解Hadoop平台的原理和流程。 下面是在Hadoop平台上部署和实现WordCount程序的详细步骤: 1. 安装和配置Hadoop:首先需要在每台节点上安装Hadoop,并进行配置。在Hadoop平台上运行WordCount程序至少需要一个主节点和一个从节点,因此需要按照相应的规格配置机器。 2. 准备数据:WordCount程序最基本的输入数据是由一些文本文件组成的文件夹。数据可以存储在Hadoop平台的HDFS分布式文件系统中。在准备数据时需要注意保证数据数量足够,充分的满足MapReduce的并行运算需求。 3. 编写WordCount程序:实现WordCount程序需要编写两个Java程序:一个是Map程序,另一个是Reduce程序。Map程序是用来将输入文件分割成一个一个的数据块,然后对每个数据块计算出单词和它们的次数。Reduce程序接受Map程序输出的结果,对这些结果进行汇总,得到最终的单词和它们的计数。 4. 打包和上传程序:将编写好的程序打包成jar包,并上传到Hadoop集群中的任意节点,随后到节点上执行WordCount程序。 5. 运行WordCount程序:在Hadoop平台上启动WordCount程序,本地模式或集群模式都可。在运行程序前需要设置好程序的输入、输出路径等参数。程序将从HDFS分布式文件系统读取输入数据,执行MapReduce运算,然后将结果存储到HDFS分布式文件系统中。 通过上述步骤,我们就可以成功地在Hadoop平台上部署和实现WordCount程序了。这个简单的程序虽然实现起来很容易,但是它为我们进一步使用Hadoop平台进行大数据处理提供了基础。 ### 回答3: 在Hadoop平台上部署WordCount程序,需要按照以下步骤进行: 1. 安装和配置Hadoop 首先需要安装配置好Hadoop。其安装过程可以通过官网提供的文档进行操作,也可以参考一些第三方的教程进行操作。在安装过程中,需要保证Hadoop的配置文件正确,同时需要调整好集群中各个节点的配置。 2. 准备WordCount程序 WordCount程序是一个经典的Hadoop应用程序,其可以对文本进行统计单词数的操作。开发者可以在官网提供的文档中找到WordCount程序的源代码,然后进行下载和编译。在这个过程中需要保证程序编译成功,并且可以被Hadoop正确的加载和运行。 3. 部署WordCount程序 在准备完WordCount程序之后,需要将其部署Hadoop的节点上。这个过程需要做好以下几个准备工作: - 将程序打包成可执行的JAR文件。 - 将JAR文件上传到Hadoop集群中,可以使用hdfs命令进行上传。 - 配置Hadoop中JobTracker的参数,将WordCount程序文件所在目录添加到Hadoop的CLASSPATH中,同时将java运行参数设置正确。 - 在Hadoop集群中进行WordCount的提交,并等待程序运行完成。 4. 查看程序运行结果 最后,可以通过Hadoop提供的命令行工具查看程序运行结果。具体命令如下: - Hadoop fs -ls /output:查看程序的输出结果。 - Hadoop fs -cat /output/part-r-00000:查看程序的统计结果。 以上就是在Hadoop平台上部署WordCount程序的基本过程。这个过程比较复杂,需要仔细的操作和配置才能顺利的完成。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

路易斯·李

点个赞再走呗 :)

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值