后端开发之Elasticsearch篇----Logstash同步数据

Logstash同步数据

mysql至es

我们需要先在es中创建一个索引(但是不需要为这儿索引设置mappings)。logstash在同步数据到es时是参照自增的id或者updated_time这个更新时间字段的,每一个logstash使用一各sql查询指定的表后会记录下这个表的自增id或者更新时间字段,如果和上一次比对的值发生变化了,就开始读取新的数据。

准备

之前我在网上也查过一些在同步时将logstash模板写在logstash同步配置文件中的案例,我也试过,配置如下:

input {
    jdbc {
        # 设置 MySql/MariaDB 数据库url以及数据库名称
        jdbc_connection_string => "jdbc:mysql://0.0.0.0:3306/foodie-dev?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true&useSSL=true"
        # 用户名和密码
        jdbc_user => "root"
        jdbc_password => "******"
        # 数据库驱动所在位置,可以是绝对路径或者相对路径
        jdbc_driver_library => "/root/app/logstash-6.4.3/sync/mysql-connector-java-5.1.41.jar"
        # 驱动类名
        jdbc_driver_class => "com.mysql.jdbc.Driver"
        # 开启分页
        jdbc_paging_enabled => "true"
        # 分页每页数量,可以自定义
        jdbc_page_size => "10000"
        # 执行的sql文件路径
        statement_filepath => "/root/app/logstash-6.4.3/sync/foodie-items.sql"
        # 设置定时任务间隔  含义:分、时、天、月、年,全部为*默认含义为每分钟跑一次任务
        schedule => "* * * * *"
        # 索引类型
        type => "_doc"
        # 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件
        use_column_value => true
        # 记录上一次追踪的结果值
        last_run_metadata_path => "/root/app/logstash-6.4.3/sync/track_time"
        # 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间
        tracking_column => "updated_time"
        # tracking_column 对应字段的类型
        tracking_column_type => "timestamp"
        # 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
        clean_run => false
        # 数据库字段名称大写转小写
        lowercase_column_names => false
    }
}
output {
    elasticsearch {
        # es地址
        hosts => ["0.0.0.0:9200"]
        # 同步的索引名
        index => "foodie-items-iks"
        # 设置_docID和数据相同
        document_id => "%{id}"
        template_name => "myik"
        tempate => "/root/app/logstash-6.4.3/sync/logstash-ik.json"
        template_overwrite => true
        manage_template => false 
    }
    # 日志输出
    stdout {
        codec => json_lines
    }
}

但是我没成功,在同步时没有为text类型的字段创建ik_max_word的分词器。

  1. 所以我提前在es中创建了自定义模板
PUT /_template/myik  # 这里的myik是自定义模板的名称

{
    "order": 0,
    "version": 1,
    "index_patterns": ["*"],
    "settings": {
        "index": {
            "refresh_interval": "5s"
        }
    },
    "mappings": {
        "_default_": {
            "dynamic_templates": [
                {
                    "message_field": {
                        "path_match": "message",
                        "match_mapping_type": "string",
                        "mapping": {
                            "type": "text",
                            "norms": false
                        }
                    }
                },
                {
                    "string_fields": {
                        "match": "*",
                        "match_mapping_type": "string",
                        "mapping": {
                            "type": "text",
                            "norms": false,
                            "analyzer": "ik_max_word",
                            "fields": {
                                "keyword": {
                                    "type": "keyword",
                                    "ignore_above": 256
                                }
                            }
                        }
                    }
                }
            ],
            "properties": {
                "@timestamp": {
                    "type": "date"
                },
                "@version": {
                    "type": "keyword"
                },
                "geoip": {
                    "dynamic": true,
                    "properties": {
                        "ip": {
                            "type": "ip"
                        },
                        "location": {
                            "type": "geo_point"
                        },
                        "latitude": {
                            "type": "half_float"
                        },
                        "longitude": {
                            "type": "half_float"
                        }
                    }
                }
            }
        }
    },
    "aliases": {}
}

在使用时直接在同步配置文件中写上模板的名称就可以了。

  1. 然后,我们需要定义我们的sql查询文件foodie-items.sql
select
     id,
     name,
     age
from
     items
where
     updated_time >= :sql_last_value # 这里的:sql_last_value变量是logstash自定义的一个变量,由logstash来管理,照写就可以了,其用于比对updated_time的更新时间
  1. 完成以上两步后,就可以定义同步配置文件了logstash-db-sync.conf
input {
    jdbc {
        # 设置 MySql/MariaDB 数据库url以及数据库名称
        jdbc_connection_string => "jdbc:mysql://0.0.0.0:3306/foodie-dev?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true&useSSL=true"
        # 用户名和密码
        jdbc_user => "root"
        jdbc_password => "******"
        # 数据库驱动所在位置,可以是绝对路径或者相对路径
        jdbc_driver_library => "/root/app/logstash-6.4.3/sync/mysql-connector-java-5.1.41.jar"
        # 驱动类名
        jdbc_driver_class => "com.mysql.jdbc.Driver"
        # 开启分页
        jdbc_paging_enabled => "true"
        # 分页每页数量,可以自定义
        jdbc_page_size => "10000"
        # 执行的sql文件路径
        statement_filepath => "/root/app/logstash-6.4.3/sync/foodie-items.sql"
        # 设置定时任务间隔  含义:分、时、天、月、年,全部为*默认含义为每分钟跑一次任务
        schedule => "* * * * *"
        # 索引类型
        type => "_doc"
        # 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件
        use_column_value => true
        # 记录上一次追踪的结果值
        last_run_metadata_path => "/root/app/logstash-6.4.3/sync/track_time"
        # 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间
        tracking_column => "updated_time"
        # tracking_column 对应字段的类型
        tracking_column_type => "timestamp"
        # 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
        clean_run => false
        # 数据库字段名称大写转小写
        lowercase_column_names => false
    }
}
output {
    elasticsearch {
        # es地址
        hosts => ["0.0.0.0:9200"]
        # 同步的索引名
        index => "foodie-items-iks"
        # 设置_docID和数据相同
        document_id => "%{id}"
        template_name => "myik"
        manage_template => false # 和上面一开始给出的同步配置文件不一样的是我这里直接指出了模板的名称就没别的了
    }
    # 日志输出
    stdout {
        codec => json_lines
    }
}
  1. 放置mysql的驱动jar
    上面所定义的这些文件最后都在同一个包里面,这样同步配置文件不容易出错

  2. 最后就是使用命令启动logstash

# 切到logstash的目录下
bin/logstash -f sync/logstash-db-sync.conf

老实说,这个东西搞了我一个晚上,先是在mac上连接我本地的mysql一直连不上,换了好几次mysql的驱动jar包也不行。然后,今天换到centos环境上可以连接mysql了,结果使用自定模板又一直没生效。通过postman输入url:GET /_template/logstash结果返回结果为空,打算先自己把模板写入到es中,最后在同步时终于成功了,text类型的字段的分词器是ik_max_word了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值