清理elasticsearch的索引

直接到 elasticsearch data文件夹里删掉就行了,但怎么也得做的有点技术含量不是?

上网站看了看文档,其实也挺简单一条命令就行了

# curl -XDELETE 'http://172.16.1.16:9200/logstash-2013.03.*' 清理掉了所有 3月份的索引文件,我发现curl 删除比rm删除要快出很多


#curl -XDELETE 'http://127.0.0.1:9200/*2016.*'
#
#curl -XDELETE 'http://127.0.0.1:9200/*2017.01.*'
#
#curl -XDELETE 'http://127.0.0.1:9200/*2017.02.*'
#
#curl -XDELETE 'http://127.0.0.1:9200/*2017.03.*'
#
#curl -XDELETE 'http://127.0.0.1:9200/ctivityescort-2016.*'   
#
#curl -XDELETE 'http://127.0.0.1:9200/ctivityescort-2017.02.*'
#
#curl -XDELETE 'http://127.0.0.1:9200/ctivityescort-2017.03.*'
#
#curl -XDELETE 'http://127.0.0.1:9200/ctivityserver-2017.03.*'


delete_es_by_day.sh

#!/bin/sh  

# example: sh  delete_es_by_day.sh logstash-kettle-log logsdate 30  

  

index_name=$1  

daycolumn=$2  

savedays=$3  

format_day=$4  

  

if [ ! -n "$savedays" ]; then  

  echo "the args is not right,please input again...."  

  exit 1  

fi  

  

if [ ! -n "$format_day" ]; then  

   format_day='%Y%m%d'  

fi  

  

sevendayago=`date -d "-${savedays} day " +${format_day}`  

  

curl -XDELETE "10.130.3.102:9200/${index_name}/_query?pretty" -d "  

{  

        "query": {  

                "filtered": {  

                        "filter": {  

                                "bool": {  

                                        "must": {  

                                                "range": {  

                                                        "${daycolumn}": {  

                                                                "from": null,  

                                                                "to": ${sevendayago},  

                                                                "include_lower": true,  

                                                                "include_upper": true  

                                                        }  

                                                }  

                                        }  

                                }  

                        }  

                }  

        }  

}"  

  

echo "ok"  

注解:脚本传入参数说明:1.索引名;2.日期字段名;3.保留最近几天数据,单位天;4.日期格式,可不输(默认形式20160101)



#!/bin/bash
#hexm@2016.10.18#只保留一周es日志

logName=(
51-nginxaccesslog
51-nginxerrorlog
51-phperrorlog
)
#es配置文件
config=/usr/local/app/elasticsearch-2.3.4/config/elasticsearch.yml
#日期time=`date -d "7 day ago" +-%Y.%m.%d`
ip=`grep "network.host" ${config} | awk '{print$2}'`
port=`grep "http.port" ${config} | awk '{print$2}'`
#es监听的ip和端口
ipPort=${ip}:${port}
#循环删除for ((i=0;i<${#logName[*]};i++))
do
    name=${logName[$i]}${time}
    curl -XDELETE "http://${ipPort}/${name}"
done



#!/usr/bin/python

# -*- coding:utf-8 -*-

#hexm@2016.10.18

#只保留一周es日志

#

import commands

from datetime import  datetime, timedelta


config = "/usr/local/app/elasticsearch-2.3.4/config/elasticsearch.yml"

logName = ('51-nginxaccesslog', '51-nginxerrorlog', '51-phperrorlog')

ip = commands.getoutput(""" grep "network.host" %s | awk '{print$2}' """ % config) 

port = commands.getoutput(""" grep "http.port" %s | awk '{print$2}' """ % config)


tm = datetime.now() + timedelta(days=-7)

tm = tm.strftime("%Y.%m.%d")


for name in logName:

    url = "http://" + str(ip) + ":" + str(port) + "/" + name + "-" + tm

    print url


#!/bin/bash

# author: Wang XiaoQiang

# crontab -e

# 0 0 * * * /root/script/del_esindex.sh

# auto delete 7 day ago elasticsearch index


dtime=`date -d "7 day ago" +%Y-%m-%d`

dtime_stamp=`date -d "$dtime" +%s`


indexs=`curl -s 'http://127.0.0.1:9200/_cat/indices' | awk '$3~/^logstash/{print $3}'`


for line in $indexs;do

  index=$line

  itime=`echo $line | awk -F - '{print $3}' | tr '.' '-'`

  itime_stamp=`date -d "$itime" +%s`


  if [ $itime_stamp -lt $dtime_stamp ];then

    curl -X DELETE "http://127.0.0.1:9200/$index" > /dev/null 2>&1

  fi

done



elasticsearch 删除索引

curl -XDELETE 'http://192.168.1.13:9200/halognew-60-2016.07.*'


您好!对于Elasticsearch的定时清理过期索引,您可以使用Elasticsearch的Curator插件来实现。Curator是一个用于管理Elasticsearch索引的工具,可以方便地执行索引删除、备份等操作。 以下是一些步骤可以用来设置定时清理过期索引的任务: 1. 安装Curator:您可以通过pip命令安装Curator: ``` pip install elasticsearch-curator ``` 2. 创建配置文件:创建一个YAML格式的配置文件,用于定义索引清理任务。例如,创建一个名为`curator_config.yml`的文件,并添加以下内容: ```yaml --- # 连接Elasticsearch的信息 client: hosts: - 127.0.0.1 port: 9200 url_prefix: use_ssl: False certificate: client_cert: client_key: ssl_no_validate: False http_auth: timeout: 30 master_only: False # 清理任务配置 actions: 1: action: delete_indices description: "Delete indices older than 30 days" filters: - filtertype: pattern kind: prefix value: your_index_prefix- - filtertype: age source: name direction: older timestring: '%Y.%m.%d' unit: days unit_count: 30 ``` 在上述配置中,`hosts`字段指定了Elasticsearch的地址和端口,`filters`字段定义了过滤器规则,这里以索引名的前缀和索引的创建时间进行过滤。 3. 创建定时任务:使用cron表达式来定义定时任务,可以在Linux系统的crontab中添加以下命令: ``` curator --config /path/to/curator_config.yml --dry-run ``` 上述命令中的`--dry-run`参数用于测试运行,可以在实际运行之前先检查将要执行的操作。 4. 运行定时任务:如果测试运行没有问题,可以将上述命令添加到crontab中,并设置合适的执行频率。例如,每天凌晨执行一次: ``` 0 0 * * * curator --config /path/to/curator_config.yml ``` 通过以上步骤,您就可以设置定时清理过期索引的任务了。请确保对配置文件和定时任务的设置进行适当调整,以满足您的需求。希望对您有所帮助!如有任何问题,请随时提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值