大数据-MaxWell

                                  大数据-MaxWell

MaxWell的基本介绍

Maxwell是一个能实时读取MySQL二进制日志binlog,并生成 JSON 格式的消息,作为生产者发送给 Kafka,Kinesis、RabbitMQ、Redis、Google Cloud Pub/Sub、文件或其它平台的应用程序。它的常见应用场景有ETL、维护缓存、收集表级别的dml指标、增量到搜索引擎、数据分区迁移、切库binlog回滚方案等。官网(http://maxwells-daemon.io)、GitHub(https://github.com/zendesk/maxwell)

Maxwell主要提供了下列功能:

①:支持 SELECT * FROM table 的方式进行全量数据初始化

②:支持在主库发生failover后,自动恢复binlog位置(GTID)

③:可以对数据进行分区,解决数据倾斜问题,发送到kafka的数据支持database、table、column等级别的数据分区。

④:工作方式是伪装为Slave,接收binlog events,然后根据schemas信息拼装,可以接受ddl、xid、row等各种event。

mysql的binlog介绍

binlog是mysql当中的二进制日志主要用于记录对mysql数据当中的数据发生或潜在发生更改的SQL语句,并以二进制的形式保存在磁盘中如果后续我们需要配置主从数据库,如果我们需要从数据库同步主数据库的内容,我们就可以通过binlog来进行同步。说白了binlog可以用于解决实时同步mysql数据库当中的数据。

binlog的格式也有三种:STATEMENTROWMIXED

STATMENT模式基于SQL语句的复制(statement-based replication, SBR),每一条会修改数据的sql语句会记录到binlog中。

  • 优点:不需要记录每一条SQL语句与每行的数据变化,这样子binlog的日志也会比较少,减少了磁盘IO,提高性能。
  • 缺点:在某些情况下会导致master-slave中的数据不一致(如sleep()函数, last_insert_id(),以及 user-defined functions(udf)等会出现问题)

基于行的复制(row-based replication, RBR):不记录每一条SQL语句的上下文信息,仅需记录哪条数据被修改了,修改成了什么样子了。

  • 优点:不会出现某些特定情况下的存储过程或function、或trigger的调用和触发无法被正确复制的问题。

  • 缺点:会产生大量的日志,尤其是alter table的时候会让日志暴涨。

混合模式复制(mixed-based replication, MBR):以上两种模式的混合使用,一般的复制使 用STATEMENT模式保存binlog,对于STATEMENT模式无法复制的操作使用ROW模式保存binlog, MySQL会根据执行的SQL语句选择日志保存方式。因为statement只有sql,没有数据,无法获 取原始的变更日志,所以一般建议为ROW模式)

开启mysql的binlog功能

添加mysql普通用户maxwell

为mysql添加一个普通用户maxwell,因为maxwell这个软件默认用户使用的是maxwell这个用户,进入mysql客户端,然后执行以下命令,进行授权。

mysql -uroot  -p  
set global validate_password_policy=LOW;
set global validate_password_length=6;
CREATE USER 'maxwell'@'%' IDENTIFIED BY '123456';
GRANT ALL ON maxwell.* TO 'maxwell'@'%';
GRANT SELECT, REPLICATION CLIENT, REPLICATION SLAVE on *.* to 'maxwell'@'%'; 
flush privileges;

开启mysql的binlog机制

对于我们的mysql数据库,我们可以开启mysql的binlog功能,通过修改mysql的配置文件来实现开启,修改完配置文件之后,需要重启mysql服务。

node03服务器执行以下命令,开启mysql的binlog,并指定binlog格式设置为ROW。

sudo vim /etc/my.cnf

#添加或修改以下三行配置

log-bin= /var/lib/mysql/mysql-bin
binlog-format=ROW
server_id=1

node03执行以下命令重启mysql服务:

sudo service mysqld restart

验证mysql服务是否开启

进入mysql客户端,并执行以下命令进行验证

mysql -uroot -p
mysql> show variables like '%log_bin%';

进入/var/lib/mysql目录,查看binlog日志文件

[hadoop@node03 mysql]$ sudo cd /var/lib/mysql
[hadoop@node03 mysql]$ sudo ls

 

安装max-well实现实时采集mysql数据

下载max-well并上传解压

node03下载max-well安装包,下载地址:

https://github.com/zendesk/maxwell/releases/download/v1.21.1/maxwell-1.21.1.tar.gz

将下载好的安装包上传到node03服务器的/kkb/soft路径下,并进行解压。

cd /kkb/soft
tar -zxf maxwell-1.21.1.tar.gz -C /kkb/install/

修改maxwell配置文件

node03修改maxwell的配置文件

cd /kkb/install/maxwell-1.21.1 
cp config.properties.example config.properties
vim config.properties


producer=kafka
kafka.bootstrap.servers=node01:9092,node02:9092,node03:9092
host=node03
user=maxwell
password=123456
producer=kafka
host=node03.kaikeba.com
port=3306
user=maxwell
password=123456
kafka.bootstrap.servers=node01:9092,node02:9092,node03:9092
kafka_topic=maxwell_kafka

启动服务

启动zookeeper服务,kafka服务并创建kafka的topic,然后启动maxwell服务,测试向数据库当中插入数据,并查看kafka当中是否能够同步到mysql数据。

创建kafka的topic:

node01执行以下命令创建kafka的topic

cd /kkb/install/kafka_2.11-1.1.0
bin/kafka-topics.sh  --create --topic maxwell_kafka --partitions 3 --replication-factor 2 --zookeeper node01:2181

node01执行以下命令,启动kafka的自带控制台消费者,消费kafka当中的数据,验证kafka当中是否有数据进入。

cd /kkb/install/kafka_2.11-1.1.0
bin/kafka-console-consumer.sh --topic maxwell_kafka --from-beginning --bootstrap-server node01:9092,node02:9092,node03:9092

node03执行以下命令,启动maxwell服务

cd /kkb/install/maxwell-1.21.1
bin/maxwell

插入数据并进行测试

向mysql当中插入一条数据,并开启kafka的消费者,查看kafka是否能够接收到数据

向mysql当中创建数据库和数据库表并插入数据

CREATE DATABASE `test`;
USE `test`;

DROP TABLE IF EXISTS `myuser`;

CREATE TABLE `myuser` (
  `id` int(12) NOT NULL,
  `name` varchar(32) DEFAULT NULL,
  `age` varchar(32) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;


insert  into `myuser`(`id`,`name`,`age`) values (1,'zhangsan',NULL),(2,'xxx',NULL),(3,'ggg',NULL),(5,'xxxx',NULL),(8,'skldjlskdf',NULL),(10,'ggggg',NULL),(99,'ttttt',NULL),(114,NULL,NULL),(121,'xxx',NULL);

启动kafka的消费者,验证数据是否进入kafka

node01执行以下命令消费kafka当中的数据

cd /kkb/install/kafka_2.11-1.1.0
bin/kafka-console-consumer.sh --bootstrap-server node01:9092,node02:9092,node03:9092 --topic  maxwell_kafka

此博文仅供学习参考,如有错误欢迎指正。

上一篇《大数据-Spark调优(三)

下一篇《大数据-phoenix

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值