hive第一次启动报报错: Call From bdc112/192.168.10.112 to bdc112:8020 failed on connection exception: java.ne

第一次启动hive报如下错误:Exception in thread “main” java.lang.RuntimeException: java.net.ConnectException: Call From bdc112/192.168.10.112 to bdc112:8020 failed on connection exception: java.net.ConnectException: 拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused

详细报错如下

Exception in thread "main" java.lang.RuntimeException: java.net.ConnectException: Call From bdc112/192.168.10.112 to bdc112:8020 failed on connection exception: java.net.ConnectException: 拒绝连接; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
	at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:651)
	at org.apache.hadoop.hive.ql.session.SessionState.beginStart(SessionState.java:591)
	at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:747)
	at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:683)
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
	at java.lang.reflect.Method.invoke(Method.java:498)
	at org.apache.hadoop.util.RunJar.run(RunJar.java:318)
	at org.apache.hadoop.util.RunJar.main(RunJar.java:232)
Caused by: java.net.ConnectException: Call From bdc112/192.168.10.112 to bdc112:8020 failed on connection exception: java.net.ConnectException: 拒绝连接; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
	at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
	at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
	at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
	at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
	at org.apache.hadoop.net.NetUtils.wrapWithMessage(NetUtils.java:831)
	at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:755)
	at org.apache.hadoop.ipc.Client.getRpcResponse(Client.java:1549)
	at org.apache.hadoop.ipc.Client.call(Client.java:1491)
	at org.apache.hadoop.ipc.Client.call(Client.java:1388)
	at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:233)
	at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:118)
	at com.sun.proxy.$Proxy28.getFileInfo(Unknown Source)
	at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.getFileInfo(ClientNamenodeProtocolTranslatorPB.java:904)
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
	at java.lang.reflect.Method.invoke(Method.java:498)
	at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:422)
	at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeMethod(RetryInvocationHandler.java:165)
	at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invoke(RetryInvocationHandler.java:157)
	at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeOnce(RetryInvocationHandler.java:95)
	at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:359)
	at com.sun.proxy.$Proxy29.getFileInfo(Unknown Source)
	at org.apache.hadoop.hdfs.DFSClient.getFileInfo(DFSClient.java:1661)
	at org.apache.hadoop.hdfs.DistributedFileSystem$29.doCall(DistributedFileSystem.java:1577)
	at org.apache.hadoop.hdfs.DistributedFileSystem$29.doCall(DistributedFileSystem.java:1574)
	at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
	at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1589)
	at org.apache.hadoop.fs.FileSystem.exists(FileSystem.java:1683)
	at org.apache.hadoop.hive.ql.exec.Utilities.ensurePathIsWritable(Utilities.java:4486)
	at org.apache.hadoop.hive.ql.session.SessionState.createRootHDFSDir(SessionState.java:760)
	at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:701)
	at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:627)
	... 9 more
Caused by: java.net.ConnectException: 拒绝连接
	at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
	at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:717)
	at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
	at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:531)
	at org.apache.hadoop.ipc.Client$Connection.setupConnection(Client.java:700)
	at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:804)
	at org.apache.hadoop.ipc.Client$Connection.access$3800(Client.java:421)
	at org.apache.hadoop.ipc.Client.getConnection(Client.java:1606)
	at org.apache.hadoop.ipc.Client.call(Client.java:1435)
	... 34 more

报错截图如下:
在这里插入图片描述
其实原因很简单,由上图的报错可知(标有红框框),意思不能连接到我们的hadoop集群,检查自己的hadoop集群是否启动成功或启动完整。
在这里插入图片描述
启动hadoop后的集群和我这个差不多就可以了,即4-3-3.

[lqs@bdc112 hive]$ bin/hive

再次启动

在这里插入图片描述
出现如上图的内容,则启动成功!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
这个错误提示是因为在 Hive 初始化后,它尝试连接到 Hadoop 的资源管理器(ResourceManager)和节点管理器(NodeManager)上,以获取集群中的资源信息,但是连接失败了。 您可以按照以下步骤来解决这个问题: 1. 确认 Hadoop 集群正常运行,并且 ResourceManager 和 NodeManager 都已经启动。您可以通过访问 ResourceManager 的 Web 界面(http://<resource_manager>:8088)和 NodeManager 的 Web 界面(http://<node_manager>:8042)来验证。 2. 确认 Hive 配置文件中的以下属性已正确配置: ``` <property> <name>yarn.resourcemanager.address</name> <value><resource_manager>:<resource_manager_port></value> <description>The ResourceManager host and port for the YARN application</description> </property> <property> <name>yarn.nodemanager.address</name> <value><node_manager>:<node_manager_port></value> <description>The NodeManager host and port for the YARN application</description> </property> ``` 其中,<resource_manager> 和 <node_manager> 分别是 ResourceManager 和 NodeManager 的主机名或 IP 地址,<resource_manager_port> 和 <node_manager_port> 分别是 ResourceManager 和 NodeManager 的端口号。 3. 确认 Hive 服务是否已启动,并且已经在 Hadoop 集群中注册。您可以在 Hive 的日志文件中查看是否有类似于以下信息: ``` INFO [main] org.apache.hadoop.hive.metastore.HiveMetaStore: Starting metastore ... INFO [main] org.apache.hadoop.hive.metastore.HiveMetaStore: Trying to connect to metastore with URI thrift://<hive_metastore>:9083 INFO [main] org.apache.hadoop.hive.metastore.HiveMetaStore: Connected to metastore. ``` 其中,<hive_metastore> 是 Hive 元数据存储的主机名或 IP 地址,9083 是 Hive 元数据存储的默认端口号。 如果 Hive 服务未启动或者未在 Hadoop 集群中注册,则需要启动 Hive 服务并将其注册到 Hadoop 集群中。 4. 检查 Hadoop 集群的防火墙设置,确保端口 8088(ResourceManager)和 8042(NodeManager)已经打开。 如果您仍然无法解决问题,请提供更多详细信息,例如 HiveHadoop 的版本号,以及配置文件中的详细信息,这样我可以更好地帮助您解决问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小雏菊的成长

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值