hadoop报错 is longer than maximum configured RPC length 67108864

在使用Hadoop 2.7.3集群时遇到数据录入延迟高且namenode日志显示'is longer than maximum configured RPC length 67108864'错误。该错误是因为IPC通讯数据超过默认最大64MB限制。解决方法包括:1) 在core-default.xml, core-site.xml和hdfs-site.xml中增加`ipc.maximum.data.length`配置至128MB;2) 修改protobuf-java-2.5.0-sources.jar中CodedInputStream.java的DEFAULT_SIZE_LIMIT为128MB,并替换到相关lib目录;3) 重启整个集群以应用更改。" 114268983,10715963,Python环境配置与IDEA创建项目指南,"['Python', 'IDEA', '开发环境', '项目配置']
摘要由CSDN通过智能技术生成

hadoop 2.7.3 集群,出现录入数据延迟高的问题,namenode日志中有报错信息:
is longer than maximum configured RPC length 67108864

报错原因:
ipc实际通讯的数据包大于默认最大的数据包配置64MB

解决办法:
提高这个参数到128MB

1、在下面3个配置中同时加上 
vi /data/usr/hadoop-2.7.3/share/doc/hadoop/hadoop-project-dist/hadoop-common/core-default.xml
vi /data/usr/hadoop-2.7.3/etc/hadoop/core-site.xml
vi /data/usr/hadoop-2.7.3/etc/hadoop/hdfs-site.xml
<property>
<name>ipc.maximum.data.length</name>
<value>134217728</value>
</property>

2、替换 protobuf-java-2.5.0-sources.jar ,解压 jar包,其中修改 CodedInputStream.java 的 DEFAULT_SIZE_LIMIT 参数

DEFAULT_SIZE_LIMIT = 64 << 20
>>
DEFAULT_SIZE_LIMIT = 128 << 20

拷贝新的包替换到下面目录
/data/usr/hadoop-2.7.3/share/hadoop/common/lib/
/data/usr/hadoop-2.7.3/share/hadoop/hdfs/lib/
/data/usr/hadoop-2.7.3/share/

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值