Elastic Search 大批量数据导入设置

1、大批量导入数据前,做一些配置,避免花费太多时间:

put http://xxx.xxx.xxx.xxx:9200/index_xxx/_settings

{
  "index.number_of_replicas": 0,   # 备份分配数量
  "index.refresh_interval" : "-1",  # 从index-buffer刷新到filesystem cache
  "index.merge.policy.floor_segment": "100mb",    # 官网的解释我没大看懂,我的个人理解是ES会避免产生很小size的segment,小于这个阈值的所有的非常小的segment都会做merge直到达到这个floor 的size,默认是2MB.
  "index.merge.scheduler.max_thread_count": "1",    # merge 线程调整
  "index.merge.policy.max_merged_segment":"100m",    # 超过多大size的segment不会再做merge,默认是5g.
  "index.translog.flush_threshold_size": "100m" # 默认是200M
}

 

2、数据导完后,手动刷新一下:

get http://xxx.xxx.xxx.xxx:9200/index_xxx/_refresh

 

3、恢复一些配置:

put http://xxx.xxx.xxx.xxx:9200/index_xxx/_settings

{
  "index.number_of_replicas": 1,
  "index.refresh_interval" : "1s",
  "index.merge.policy.floor_segment": "2mb",
  "index.merge.scheduler.max_thread_count": "1",
  "index.merge.policy.max_merged_segment":"5g",
  "index.translog.flush_threshold_size": "200m"
}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值