hadoop解决集群总资源为0的情况

4 篇文章 0 订阅
1 篇文章 0 订阅

项目场景:

sqoop从mysql到hive的问题
hadoop解决集群总资源为0的情况

问题描述

在使用sqoop将数据从mysql导入到hive当中的时候,出现了一个问题

bin/sqoop import --connect jdbc:mysql://master01:3306/demo_test?useSSL=false  --username root --password xxxx --target-dir /usr/hive/warehouse/test001 --table backup --num-mappers 1

通过该命令提交,发现并未报错,但是底层的MR却申请不到资源。

在这里插入图片描述
这个是修改后的,修改前的时候,在集群总资源这个地方显示为0,也就是没有资源可用
一开始以为是yarn的资源调度有问题,后面进行查找

原因分析:

  • yarn资源的调度问题
  • 配置文件有问题
  • 服务器资源满了
    在这里插入图片描述
    这里穿插一条如何扩容磁盘的链接.,不是我写的,某位大佬
    这里在最下面要注意一下,有可能你得并不是ext2/ext3的磁盘格式,这个时候就不能用他第11步骤的resize2fs这个方式来扩容,如果你是xfs格式的话可以用这一条
 xfs_growfs /dev/mapper/centos-root
这个是我的路径,可以根据自己的主分区路径进行修改

解决方案:

这个地方我进行了很多尝试,但是结果却并不是,一开始我以为的是配置文件,出现了问题导致我的集群,修改了两次的配置文件,却发现并未有任何变化,于是我就开始在搜索答案,之后还是找到一个比较合理的答案,说是服务器资源不够。后面我发现,其实这也只是一部分原因,当时我的服务器资源还是有的,但是我还是尝试了一下,扩大了虚拟机的磁盘,修改了一下磁盘空间,df -h查看后容量变成了46%

<property>
  <name>yarn.app.mapreduce.am.env</name>
  <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.3.1</value>
</property>
<property>
  <name>mapreduce.map.env</name>
  <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.3.1</value>
</property>
<property>
  <name>mapreduce.reduce.env</name>
  <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.3.1</value>
</property>

增加mapred-site.xml部分配置情况,指定一下hadoop的路径,没有到bin
然后发现NodeManager启动不了了
哈哈哈哈哈哈,又一次修改,
后面发现是yarn-site.xml配置问题,我为了修改,然后

yarn.nodemanager.resource-type.resource1
yarn.nodemanager.resource-type.resource2

原因就是这里了,我增加了两个指定关于单个资源类型的详细信息。我把这一块注释了就OK 了
在这里插入图片描述
果然,改bug什么的简直就是人生梦魇,害。。。
但是还是解决了
看看结果
在这里插入图片描述
在hive里面就能找到数据了,真不错
sqoop从mysql到hive算是打通了,还顺带调一下集群,真难受
算了,淦奶茶去,起飞

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值