elk同步数据库数据

 

在/opt/logstash/bin/添加logstash-elasticsearch-mysql.conf

配置logstash-elasticsearch.conf

# Sample Logstash configuration for creating a simple
# Beats -> Logstash -> Elasticsearch pipeline.

# logstash 收集模块,从日志,数据库中采集数据
input {
  beats {
    port => 5044
  }
  
  # 可以在 logstash 控制台输入相对应的参数,来改变 output 的行为
  stdin {}
  jdbc {
  	type => "jdbc"
  	# 数据库连接地址,我的是 MySQL 8.0 的,所以连接必须带上时区
  	jdbc_connection_string => "jdbc:mysql://localhost:8080/stg?characterEncoding=UTF-8&autoReconnect=true&serverTimezone=Asia/Shanghai"
  	# 数据库连接账号密码
	jdbc_user => "root"
    jdbc_password => "123"
    # MySQL依赖包路径,名称一定要对应;
    jdbc_driver_library => "/opt/logstash-7.17.0/lib/mysql/mysql-connector-java-8.0.27.jar"
    # the name of the driver class for mysql
    jdbc_driver_class => "com.mysql.cj.jdbc.Driver"
    # 数据库重连尝试次数
    connection_retry_attempts => "3"
    # 判断数据库连接是否可用,默认false不开启
    jdbc_validate_connection => "true"
    # 数据库连接可用校验超时时间,默认3600S
    jdbc_validation_timeout => "3600"
    # 开启分页查询(默认false不开启);
    jdbc_paging_enabled => "true"
    # 单次分页查询条数(默认100000,若字段较多且更新频率较高,建议调低此值);
    jdbc_page_size => "500"
    # statement为查询数据sql,如果sql较复杂,建议配通过statement_filepath配置sql文件的存放路径;
    # sql_last_value为内置的变量,存放上次查询结果中最后一条数据tracking_column的值,此处即为ModifyTime;
    # 这个你需要自己多尝试,执行 sql 文件
    #statement_filepath => "../lib/mysql/jdbc.sql"
	# 查询语句,高级一点的就是增加查询条件
    statement => "select * from t_interface_external_log"
    # 是否将字段名转换为小写,默认true(如果有数据序列化、反序列化需求,建议改为false);
    lowercase_column_names => false
    # Value can be any of: fatal,error,warn,info,debug,默认info;
    sql_log_level => warn
    # 是否记录上次执行结果,true表示会将上次执行结果的tracking_column字段的值保存到last_run_metadata_path指定的文件中;
    record_last_run => true
    # 需要记录查询结果某字段的值时,此字段为true,否则默认tracking_column为timestamp的值;
    use_column_value => true
    # 需要记录的字段,用于增量同步,需是数据库字段
    tracking_column => "ModifyTime"
    # Value can be any of: numeric,timestamp,Default value is "numeric"
    tracking_column_type => timestamp
    # record_last_run上次数据存放位置;
    last_run_metadata_path => "/opt/logstash-7.17.0/lib/mysql/last_id.txt"
    # 是否清除last_run_metadata_path的记录,需要增量同步时此字段必须为false;
    clean_run => false
    # 同步频率(分 时 天 月 年),默认每分钟同步一次; 定时任务中的 corn 表达式
    schedule => "* * * * *"
  }
}

# logstash 输出模块,将采集好的数据同步至 ES
output {
  elasticsearch {
  	# 作为数组可以存储集群数据
    hosts => ["http://124.221.27.165:9200"]
    # 索引名字
    index => "blog"
    # index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
    # 数据的唯一索引,就是你查询的表的主键或者一个唯一 ID,自动替换为 ES 的 _id 字段
    # document_id => "%{blog_id}"
  }
  stdout {
	  codec => json_lines
  }
}

./logstash -f logstash-elasticsearch-mysql.conf

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值