做爬虫的时候,只是简单的存入elasticsearch中,在测试服务器上结果发现老是插入不进去:
提示的错误:
logstash.outputs.elasticsearch] retrying failed action with response code: 403 ({"type"=>"cluster_block_exception", "reason"=>"blocked by: [FORBIDDEN/12/index read-only / allow delete (api)]
这是由于ES新节点的数据目录data存储空间不足,导致从master主节点接收同步数据的时候失败,此时ES集群为了保护数据,会自动把索引分片index置为只读read-only
解决方法:
- 1 磁盘扩容,可在配置文件中修改ES数据存储目录,重启ES
- 2 2.放开索引只读设置,在服务器上通过curl工具发起PUT请求
PUT _settings
{
"index": {
"blocks": {
"read_only_allow_delete": "false"
}
}
}
这里我使用的是第二种方法。
如果es出现其他问题,记得搜关键词,不要太多,就能搜索到答案的。
欢迎光临我的小网站:www.00reso.com
陆续优化中,后续会开发更多更好玩的有趣的小工具。