Elasticsearch 与mysql数据同步

Elasticsearch 与mysql数据同步

通过调用Elasticsearch的api来插入检索数据比较麻烦,这里介绍另外一种方案,利用logstash插件、logstash-input-jdbc插件,与mysql数据进行增量同步。

增量同步包括,初始数据,新增数据、修改数据的同步,但是不包括删除数据,删除数据还是需要调用api来操作。简单描述下工作原理,就是定时去查询mysql数据库,把新数据和修改的数据批量插入到索引中。

那么什么样的数据才是新数据或者修改过的数据呢,这里需要数据库的表设计来配合,比如设定一个时间戳字段updatetime,logstash插入索引数据的时候会自动缓存最后一条记录的指定的字段,那么只要updatetime大于缓存值就是新数据或者修改过的数据,对于没有修改需求的记录我们可以直接指定主键id就可以。

安装logstash

安装logstash

安装 logstash的插件 logstash-input-jdbc

将mysql的驱动jar包,放到指定目录。

准备两个文件jdbc.conf、msg.sql,名字不重要随便起
jdbc.conf ,输入下面的内容

input {
    jdbc {
      # 数据库连接字符串
      jdbc_connection_string => "jdbc:mysql://数据库IP地址:3306/db?characterEncoding=UTF-8&useSSL=false"
      # 数据库用户名和密码
      jdbc_user => "root"
      jdbc_password => "password"
      # 数据库java驱动包目录
      jdbc_driver_library => "/opt/logstash/mysql-connector-java-5.1.46-bin.jar"
      # the name of the driver class for mysql
      jdbc_driver_class => "com.mysql.jdbc.Driver"
      jdbc_paging_enabled => "true"
      jdbc_page_size => "50000"
      # 关联第二个文件
      statement_filepath => "msg.sql"
      # 开启用户字段追踪判断,缓存最后记录的对应字段,这里缓存的是主键id字段
      use_column_value => true
      tracking_column => "id"
      record_last_run => true
      # 缓存文件目录,会把最后操作的记录的id缓存到这个文件中,可以先建好放在合适的位置
      last_run_metadata_path => "/opt/logstash/msg-id.last"
      # 设定同步周期,当前设置是每分钟一次
      schedule => "* * * * *"
      # 索引的分类
      type => "msg"
    }
}

filter {
    json {
        source => "message"
        remove_field => ["message"]
    }
}

output {
    elasticsearch {
        # 地址
        hosts => "192.168.3.123:9200"
        # 索引的名称,这边跟数据库起了一样的名字
        index => "db_search"
        # 索引下面的分类,直接用了上面配置中的值
        document_type => "%{type}"
    }
    stdout {
        codec => json_lines
    }
}

msg.sql 里面输入以下内容

select 
    id,
    msg_title,
    msg_link,
    publish_time
from 
    msg
where 
    id > :sql_last_value

其中 :sql_last_value 这个值会自动读取之前设置的缓存文件msg-id.last中的值
很显然我这个配置是不支持数据修改的,因为我用的是主键id字段,如果有数据修改的需求可以指定其他的字段。

启动

sudo bin/logstash -f jdbc.conf

注意事项,很重要

此方法自动建立的索引有个很重要的问题,就是分词器是用的系统默认的,对中文支持很烂,而且索引一旦建立是不能修改分词器的!所以如果你需要指定分词器(比如IK),就必须先建立索引,然后再进行数据同步。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值