Hadoop 运行wordcount任务卡在runnning job的一种解决办法
在使用Mac系统构建本地伪分布式hadoop系统,遇到如下问题
网上有较多的解决办法,但是均不能解决我的问题,后来经过google查询之后,对yarn-site.xml 添加以下配置信息
<property>
<name>yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage</name>
<value>95.0</value>
</property>
其原因是我因囊中羞涩买的128G的macbook,当剩余硬盘容量不足设定阈值时,就会判定该节点坏了,由于是伪分布式,所以任务会被无限搁置。