Hadoop 运行wordcount任务卡在job running的一种解决办法

Hadoop 运行wordcount任务卡在runnning job的一种解决办法

在使用Mac系统构建本地伪分布式hadoop系统,遇到如下问题

错误视图


网上有较多的解决办法,但是均不能解决我的问题,后来经过google查询之后,对yarn-site.xml 添加以下配置信息

<property>
    <name>yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage</name>
    <value>95.0</value>
 </property>

其原因是我因囊中羞涩买的128G的macbook,当剩余硬盘容量不足设定阈值时,就会判定该节点坏了,由于是伪分布式,所以任务会被无限搁置。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值