1.Logstash数据采集与同步
1.Logstash
Logstash是elastic技术栈中的一个技术。它是一个数据采集引擎,可以从数据库采集数据到es中。我们可以通过设置自增id主键或者update_time时间来控制数据的自动同步,这个id或者update_time时间就是用于给logstash进行识别的
-
id:假设现在有1000条数据,Logstatsh识别后会进行一次同步,同步完会记录这个id为1000,以后数据库新增数据,那么id会一直累加h会有定时任务,发现有id大于1000了,则增量加入到es中
-
update_time时间:同理,一开始同步1000条数据,每条数据都有一个字段,为time,初次同步完毕后,记录这个time,下次同步的时候进行时间比超过这个时间的,那么就可以做同步,这里可以同步新增数据,或者修改元数据,因为同一条数据的时间更改会被识别,而id则不会。
以id或者update_time作为同步边界
2.安装Logstash
官方链接:https://www.elastic.co/cn/downloads/logstash
注:使用Logstatsh的版本号与elasticsearch版本号需要保持一致
3.插件 logstash-input-jdbc
本插件用于同步,es6.x起自带,这个是集成在了 logstash中的。所以直接配置同步数据库的配置文件即可
4.创建索引
同步数据到es中,前提得要有索引,这个需要手动先去创建,名字随意。比如: foodie-items
5.JDK
记得安装JDK,java -version检查一下,如果没有安装,请安装一下。
2.logstatsh数据同步 - 数据同步配置
1.logstash同步数据库配置
- 上传并解压logstash,位置放在如下:
1.上传文件到服务器,这里是mac终端直接上传,也可以使用
scp /Users/administrator/Downloads/logstash-7.12.0-linux-x86_64.tar.gz root@123.57.129.206:/home/software
2.解压文件夹
tar -zxvf logstash-7.12.0-linux-x86_64.tar.gz
3.移动到/usr/local文件夹下
mv logstash-7.12.0 /usr/local/
4.进入到logstash-7.12.0文件下,创建同步目录sync
mkdir sync
5.进入到sync文件下,添加配置文件 logstash-db-sync.conf
vim logstash-db-sync.conf
6.上传数据库驱动
scp /Users/administrator/Desktop/2.\ ElasticSearch\ 分布式搜索引擎/elasticsearch/mysql-connector-java-5.1.41.jar root@123.57.129.206:/home/software
7.数据库驱动copy到当前文件夹
cp /home/software/mysql-connector-java-5.1.41.jar .
8.创建配置文件logstash-db-sync.conf文件和sql文件
vim logstash-db-sync.conf
input {
jdbc {
# 设置 MySql/MariaDB 数据库url以及数据库名称
jdbc_connection_string => "jdbc:mysql://192.168.1.6:3306/foodie-shop-dev?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true&useSSL=false"
# 用户名和密码
jdbc_user => "root"
jdbc_password => "root"
# 数据库驱动所在位置,可以是绝对路径或者相对路径
jdbc_driver_library => "/usr/local/logstash-6.4.3/sync/mysql-connector-java-5.1.41.jar"
# 驱动类名
jdbc_driver_class => "com.mysql.jdbc.Driver"
# 开启分页
jdbc_paging_enabled => "true"
# 分页每页数量,可以自定义
jdbc_page_size => "1000"
# 执行的sql文件路径
statement_filepath => "/usr/local/logstash-6.4.3/sync/foodie-items.sql"
# 设置定时任务间隔 含义:分、时、天、月、年,全部为*默认含义为每分钟跑一次任务
schedule => "* * * * *"
# 索引类型
type => "_doc"
# 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件
use_column_value => true
# 记录上一次追踪的结果值
last_run_metadata_path => "/usr/local/logstash-6.4.3/sync/track_time"
# 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间
tracking_column => "updated_time"
# tracking_column 对应字段的类型
tracking_column_type => "timestamp"
# 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
clean_run => false
# 数据库字段名称大写转小写
lowercase_column_names => false
}
}
output {
elasticsearch {
# es地址
hosts => ["192.168.1.187:9200"]
# 同步的索引名
index => "foodie-items"
# 设置_docID和数据相同
document_id => "%{id}"
# document_id => "%{itemId}"
}
# 日志输出
stdout {
codec => json_lines
}
}
注意:这里要修改你的mysql数据库的ip地址,以及驱动的文件的路径和执行的sql文件路径
同时需要注意document_id => "%{id}"这个ID要与查询id对应,所以修改为document_id => "%{itemId}"
vim foodie-items.sql
select
i.id as itemId,
.....,
i.updated_time as update_time
from
item i
left join
item_img ii
on
i.id=ii.item_id
where
ii.is_main=1
and
i.updated_time >= :sql_last_value
注意:这里要在你的查询语句上添加updated_time ,同时要在查询条件上添加 updated_time >= :sql_last_value
同时数据库表中需要有updated_time这个字段,
初次使用的话,要对updated_time进行调整,默认是1970年开始
UPDATE `store`.`product` SET `updated_time` = '2021-04-27 11:42:48'
9.启动logstash
./logstash -f /usr/local/logstash-7.12.0/sync/logstash-db-sync.conf
10.报错提示修改
javax.net.ssl.SSLException: closing inbound before receiving peer’s close_notify
需要修改logstash-db-sync.conf 文件:
更改设置 MySql/MariaDB 数据库url以及数据库名称:添加上useSSL=false
jdbc_connection_string => "jdbc:mysql://192.168.1.6:3306/foodie-shop-dev?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true&useSSL=false"
2.自定义模板配置中文分词
2.1引子
目前的数据同步,mappings映射会自动创建,但是分词不会,还是会使用默认的,而我们需要中文分词,这个时候就需要自定义模板功能来设置分词了。
2.2查看Logstash默认模板
GET /_template/logstash
修改模板如下 :
{
"order": 0,
"version": 1,
"index_patterns": [
"*"
],
"settings": {
"index": {
"number_of_shards": "1",
"refresh_interval": "5s"
}
},
"mappings": {
"dynamic_templates": [
{
"message_field": {
"path_match": "message",
"mapping": {
"norms": false,
"type": "text"
},
"match_mapping_type": "string"
}
},
{
"string_fields": {
"mapping": {
"norms": false,
"type": "text",
"analyzer": "ik_max_word",
"fields": {
"keyword": {
"ignore_above": 256,
"type": "keyword"
}
}
},
"match_mapping_type": "string",
"match": "*"
}
}
],
"properties": {
"@timestamp": {
"type": "date"
},
"geoip": {
"dynamic": true,
"properties": {
"ip": {
"type": "ip"
},
"latitude": {
"type": "half_float"
},
"location": {
"type": "geo_point"
},
"longitude": {
"type": "half_float"
}
}
},
"@version": {
"type": "keyword"
}
}
},
"aliases": {}
}
2.3修改Logstash-db-sync.conf
需要在output中添加自定义模版名称
#定义模版的名称
template_name => "myik"
#模版所在的位置
template => "/Library/Environment/logstash-7.12.0/sync/logstash-ik.json"
#是否重写模版
template_overwrite => true
#默认为true,false关闭logstash自动管理模版的功能,如果自定义模版,则设置false
manage_template => false