sqoop从数据库到处数据到hdfs时mapreduce卡住不动解决

sqoop时从数据库中导出数据时,出现mapreduce卡住的情况


经过百度之后好像是要设置yarn里面关于内存和虚拟内存的配置项.我以前没配置这几项,也能正常运行。但是这次好像运行的比较大。出现此故障的原因应该是,在每个Docker分配的内存和CPU资源太少,不能满足Hadoop和Hive运行所需的默认资源需求。

 

解决方案如下:

在yarn-site.xml中加入如下配置:

 

1. <property>  

2.     <name>yarn.nodemanager.resource.memory-mb</name>  

3.     <value>20480</value>  

4. </property>  

5. <property>  

6.    <name>yarn.scheduler.minimum-allocation-mb</name>  

7.    <value>2048</value>  

8. </property>  

9. <property>  

10.     <name>yarn.nodemanager.vmem-pmem-ratio</name>  

11.     <value>2.1</value>  

12. </property>  

 

关闭yarn重启就好了!!!


  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值