1、大数据量,主从无法同步问题
client-output-buffer-limit slave 256mb 64mb 60
调大主从同步缓存大小限制
client-output-buffer-limit slave 0 0 0
全部设置为0表示无限制
2、节点莫名宕机,一会儿又自动恢复
storm集群读取redis数据,莫名出现cluster down错误,查看redis日志,也找不到什么有用的信息,只看到节点信息变成了fail状态,过一会又state change回正常状态。猜测可能是主从同步时间过长,超过了集群超时时间。被暂时标记为了fail状态。
调大cluster-node-timeout值。单位milliSec。
3、节点持久化错误
redis默认持久化策略是rdb+aof。且aof是everysec。大数据量下,对于节点的压力非常大,aof文件过大,出现报错。建议改变aof策略,或者关闭aof持久化。(在节点出错时,可能会丢掉更多的数据。)