解决集群部署Hadoop 启动后没有ResourceManager问题

问题

我安装的是Hadoop3.3.4,使用的是Java17,在启动hadoop时,出现了下面的问题

1. 启动完成后输入jps命令没有看到ResourceManager

在这里插入图片描述

2. 查看ResourceManager日志出现java.lang.reflect.InaccessibleObjectException异常

2023-03-18 11:14:47,513 ERROR org.apache.hadoop.yarn.server.resourcemanager.ResourceManager: Error starting ResourceManager
java.lang.ExceptionInInitializerError
	at com.google.inject.internal.cglib.reflect.$FastClassEmitter.<init>(FastClassEmitter.java:67)
	at com.google.inject.internal.cglib.reflect.$FastClass$Generator.generateClass(FastClass.java:72)
	at com.google.inject.internal.cglib.core.$DefaultGeneratorStrategy.generate(DefaultGeneratorStrategy.java:25)
	at com.google.inject.internal.cglib.core.$AbstractClassGenerator.create(AbstractClassGenerator.java:216)
	at com.google.inject.internal.cglib.reflect.$FastClass$Generator.create(FastClass.java:64)
	at com.google.inject.internal.BytecodeGen.newFastClass(BytecodeGen.java:204)
	at com.google.inject.internal.ProviderMethod$FastClassProviderMethod.<init>(ProviderMethod.java:256)
	at com.google.inject.internal.ProviderMethod.create(ProviderMethod.java:71)
	at com.google.inject.internal.ProviderMethodsModule.createProviderMethod(ProviderMethodsModule.java:275)
	at com.google.inject.internal.ProviderMethodsModule.getProviderMethods(ProviderMethodsModule.java:144)
	at com.google.inject.internal.ProviderMethodsModule.configure(ProviderMethodsModule.java:123)
	at com.google.inject.spi.Elements$RecordingBinder.install(Elements.java:340)
	at com.google.inject.spi.Elements$RecordingBinder.install(Elements.java:349)
	at com.google.inject.AbstractModule.install(AbstractModule.java:122)
	at com.google.inject.servlet.ServletModule.configure(ServletModule.java:52)
	at com.google.inject.AbstractModule.configure(AbstractModule.java:62)
	at com.google.inject.spi.Elements$RecordingBinder.install(Elements.java:340)
	at com.google.inject.spi.Elements.getElements(Elements.java:110)
	at com.google.inject.internal.InjectorShell$Builder.build(InjectorShell.java:138)
	at com.google.inject.internal.InternalInjectorCreator.build(InternalInjectorCreator.java:104)
	at com.google.inject.Guice.createInjector(Guice.java:96)
	at com.google.inject.Guice.createInjector(Guice.java:73)
	at com.google.inject.Guice.createInjector(Guice.java:62)
	at org.apache.hadoop.yarn.webapp.WebApps$Builder.build(WebApps.java:417)
	at org.apache.hadoop.yarn.webapp.WebApps$Builder.start(WebApps.java:465)
	at org.apache.hadoop.yarn.server.resourcemanager.ResourceManager.startWepApp(ResourceManager.java:1389)
	at org.apache.hadoop.yarn.server.resourcemanager.ResourceManager.serviceStart(ResourceManager.java:1498)
	at org.apache.hadoop.service.AbstractService.start(AbstractService.java:194)
	at org.apache.hadoop.yarn.server.resourcemanager.ResourceManager.main(ResourceManager.java:1699)
Caused by: java.lang.reflect.InaccessibleObjectException: Unable to make protected final java.lang.Class java.lang.ClassLoader.defineClass(java.lang.String,byte[],int,int,java.security.ProtectionDomain) throws java.lang.ClassFormatError accessible: module java.base does not "opens java.lang" to unnamed module @5e922278
	at java.base/java.lang.reflect.AccessibleObject.checkCanSetAccessible(AccessibleObject.java:354)
	at java.base/java.lang.reflect.AccessibleObject.checkCanSetAccessible(AccessibleObject.java:297)
	at java.base/java.lang.reflect.Method.checkCanSetAccessible(Method.java:199)
	at java.base/java.lang.reflect.Method.setAccessible(Method.java:193)
	at com.google.inject.internal.cglib.core.$ReflectUtils$2.run(ReflectUtils.java:56)
	at java.base/java.security.AccessController.doPrivileged(AccessController.java:318)
	at com.google.inject.internal.cglib.core.$ReflectUtils.<clinit>(ReflectUtils.java:46)
	... 29 more

解决方法

1. 停止hadoop

在这里插入图片描述

2. 修改每台机器上的hadoop-env

我的在/opt/hadoop-3.3.4/etc/hadoop这个路径下
在这里插入图片描述
找到这里
在这里插入图片描述
添加代码

export HADOOP_OPTS="--add-opens java.base/java.lang=ALL-UNNAMED"

这个是添加java运行时参数,不过上面注明了这样是不推荐的

然后分发到其他机器
在这里插入图片描述

for i in {1..4};do scp -r /opt/hadoop-3.3.4/etc/hadoop/hadoop-env.sh root@vice${i}:/opt/hadoop-3.3.4/etc/hadoop/hadoop-env.sh;done

3. 删除所有机器上tmp和logs文件夹里的内容

在这里插入图片描述

4. master重新格式化NameNode

hdfs namenode -format

在这里插入图片描述

5. 启动hadoop

start-all.sh

在这里插入图片描述

6. 查看是否解决问题

(1)master服务器上输入jps命令

在这里插入图片描述
出现了ResourceManager

(2)在从节点上输入jps命令

在这里插入图片描述
运行正常

(3)访问一下http://192.168.186.141:8088/

在这里插入图片描述
运行正常

(4)访问一下http://192.168.186.141:9870/

在这里插入图片描述
在这里插入图片描述
一切正常,问题成功解决

  • 7
    点赞
  • 66
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
在使用Ambari来部署Hadoop集群时,以下是Hadoop组件启动的一般顺序: 1. ZooKeeper:ZooKeeper是一个分布式协调服务,在Hadoop集群中用于管理和协调其他组件。首先,启动ZooKeeper服务。 2. HDFSHadoop Distributed File System):HDFSHadoop的分布式文件系统。按照以下顺序启动HDFS组件: - NameNode:启动NameNode服务,它是HDFS的主节点,负责管理文件系统的命名空间和元数据。 - SecondaryNameNode(可选):如果使用SecondaryNameNode组件,启动SecondaryNameNode服务,它负责定期合并NameNode的编辑日志并创建检查点。 - DataNode:启动DataNode服务,DataNode是HDFS的数据节点,负责存储实际的文件数据。 3. YARN(Yet Another Resource Negotiator):YARN是Hadoop的资源管理器,用于管理集群资源和任务调度。按照以下顺序启动YARN组件: - ResourceManager启动ResourceManager服务,它是YARN的主节点,负责整个集群的资源管理和作业调度。 - NodeManager启动NodeManager服务,NodeManager运行在每个节点上,负责管理该节点上的资源和任务。 4. MapReduce历史服务器(可选):如果使用MapReduce历史服务器组件,可以启动它来查看旧的MapReduce作业历史信息。 5. Hive Metastore服务(可选):如果使用Hive,启动Hive Metastore服务,它是Hive的元数据存储。 6. Spark历史服务器(可选):如果使用Spark,可以启动Spark历史服务器来查看Spark应用程序的历史信息。 请注意,以上是一般情况下的启动顺序,并且可能会因特定的配置或需求而有所不同。在启动之前,请确保相关的配置文件已正确设置,并且网络连接正常。启动过程中,可以查看Ambari界面或相应的日志文件来检查是否有任何错误或异常情况。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值