返回

利用 MySQL 的 Binlog 实现数据同步与订阅(下):EventBus 篇

终于到这个系列的最后一篇,在前两篇博客中,我们分别了介绍了Binlog的概念和事件总线(EventBus)的实现,在完成前面这将近好几千字的铺垫以后,我们终于可以进入正题,即通过 EventBus 发布 Binlog,再通过编写对应的 EventHandler 来订阅这些 Binlog,这样就实现了我们“最初的梦想”。坦白说,这个过程实在有一点漫长,庆幸的是,它终于还是来了。

Binlog 读取与解析

首先,我们通过 Python-Mysql-Replication 这个项目来读取 Binlog,直接通过pip install mysql-replication安装即可。接下来,我们编写一个简单的脚本文件,这再次印证那句名言——人生苦短,我用 Python:

 1def readBinLog():
 2    stream = BinLogStreamReader(
 3        # 填写IP、账号、密码即可
 4        connection_settings = {
 5            'host': '',
 6            'port': 3306, 
 7            'user': '', 
 8            'passwd': ''
 9        },
10        # 每台服务器唯一
11        server_id = 3, 
12        # 主库Binlog读写完毕时是否阻塞连接
13        blocking = True, 
14        # 筛选指定的表
15        only_tables = ['order_info', 'log_info'], 
16        # 筛选指定的事件
17        only_events = [DeleteRowsEvent, WriteRowsEvent, UpdateRowsEvent]) 
18
19    for binlogevent in stream:
20        for row in binlogevent.rows:
21            event = {
22                "schema": binlogevent.schema,
23                "table": binlogevent.table,
24                "log_pos": binlogevent.packet.log_pos
25            }
26            if isinstance(binlogevent, DeleteRowsEvent):
27                event["action"] = "delete"
28                event["origin"] = dict(row["values"].items())
29                event["current"] = None
30                event = dict(event.items())
31            elif isinstance(binlogevent, UpdateRowsEvent):
32                event["action"] = "update"
33                event["origin"] = dict(row["before_values"].items())
34                event["current"] = dict(row["after_values"].items())
35                event = dict(event.items())
36            elif isinstance(binlogevent, WriteRowsEvent):
37                event["action"] = "insert"
38                event["origin"] = None
39                event["current"] = dict(row["values"].items())
40                event = dict(event.items())
41    stream.close()

发布 Binlog

在读取到 Binlog 以后,我们需要将其发布到 EventBus 里,为此,在.NET Core 这边提供一个 Web API 接口,只需要注入IEventBus然后调用Publish()即可:

 1// Post: /<controller>/Publish
 2[HttpPost]
 3[Route ("PublishBinLog")]
 4public Task PublishBinLog (BinLogEventModel<dynamic> eventModel) 
 5{
 6    if (eventModel.action == "insert" && eventModel.table.StartsWith ("log_"))
 7        _eventBus.Publish (eventModel.MapTo<WriteLogEvent> ());
 8    if (eventModel.action == "insert" && eventModel.table == "order_info")
 9        _eventBus.Publish (eventModel.MapTo<OrderInfoCreateEvent> ());
10    return Task.CompletedTask;
11}

相应地,我们需要在脚本中添加调用 Web API 的逻辑代码,使用我们最熟悉的requests库即可:

 1def sendBinLog(event):
 2    url = "https://localhost:44348/EventBus/PublishBinLog"
 3    headers = {
 4        'Content-Type': "application/json",
 5    }
 6    try:
 7        payload = json.dumps(event,cls=ComplexEncoder)
 8        response = session.request("POST", url, data=payload, headers=headers, verify=False)
 9    except Exception:
10        pass

在这里,在处理 Binlog 的序列化的问题时,我们可能会遇到默认的 JSON 序列化器无法对 event 进行序列化的问题,此时,我们可以编写一个自定义的序列化器,下面是博主目前在使用的序列化器:

 1class ComplexEncoder(json.JSONEncoder):
 2    def default(self, obj):
 3        if isinstance(obj, datetime):
 4            return obj.strftime('%Y-%m-%d %H:%M:%S')
 5        elif isinstance(obj, date):
 6            return obj.strftime('%Y-%m-%d')
 7        elif isinstance(obj, decimal.Decimal):
 8            return str(obj)
 9        elif isinstance(obj, bytes):
10            return obj.decode('utf-8')  
11        else:
12            return json.JSONEncoder.default(self, obj)

订阅 Binlog

现在,为了订阅这些 Binlog,我们来编写对应的 EventHandler,这里我们定义两个 EventHandler,一个用于打印日志编号、日志内容、日志级别等信息,一个用于统计不同级别的日志的数目。代码实现如下:

 1//打印日志的EventHandler
 2public class WriteLogEventHandler : IEventHandler<WriteLogEvent> {
 3    private ILogger<WriteLogEventHandler> _logger;
 4    public WriteLogEventHandler (ILogger<WriteLogEventHandler> logger) {
 5        _logger = logger;
 6    }
 7    public Task Handle (WriteLogEvent @event) {
 8        _logger.LogInformation ($"日志编号:{@event.TRANSACTION_ID},日志级别:{@event.LOG_LEVEL},主机:{@event.HOST_NAME},IP:{@event.HOST_IP},内容:{@event.CONTENT}");
 9        return Task.CompletedTask;
10    }
11}
12
13//分析日志的EventHandler
14public class AnalyseLogEventHandler : IEventHandler<WriteLogEvent> {
15    private readonly ILogger<AnalyseLogEventHandler> _logger;
16    private readonly IDistributedCache _cache;
17    public AnalyseLogEventHandler (ILogger<AnalyseLogEventHandler> logger, IDistributedCache cache) {
18        _logger = logger;
19        _cache = cache;
20    }
21    public Task Handle (WriteLogEvent @event) {
22        var cacheCount = _cache.GetString (@event.LOG_LEVEL);
23        if (string.IsNullOrEmpty (cacheCount))
24            cacheCount = "1";
25        else
26            cacheCount = (int.Parse (cacheCount) + 1).ToString ();
27        _cache.SetString (@event.LOG_LEVEL, cacheCount);;
28        return Task.CompletedTask;
29    }
30}

注意,这里需要在Startup中注入EventHandlerEventBus以及各种必要的依赖项,你可以手动注册,或者参考下面的代码,实现扫描注册:

 1services.AddSingleton<IRabbitMQPersistentConnection, DefaultRabbitMQPersistentConnection> ();
 2services.AddSingleton<IEventBusSubscriptionManager, EventBusSubscriptionManager> (sp => new EventBusSubscriptionManager ());
 3services.AddSingleton<IConnectionFactory, ConnectionFactory> (sp => new ConnectionFactory () { HostName = "localhost", UserName = "guest", Password = "guest" });
 4services.AddSingleton<ObjectPoolProvider, DefaultObjectPoolProvider> ();
 5services.AddControllers ().AddNewtonsoftJson ();
 6services.AddDistributedMemoryCache (options => {
 7    options.ExpirationScanFrequency = TimeSpan.FromMinutes (5);
 8    options.SizeLimit = 10;
 9});
10
11//自动注册
12services.AddEventBus();
13
14//手动注册
15services.AddSingleton<IEventBus, RabbitMQEventBus> (sp => {
16    var eventBus = new RabbitMQEventBus (sp.GetRequiredService<IRabbitMQPersistentConnection> (), sp.GetRequiredService<IEventBusSubscriptionManager> (), sp.GetRequiredService<ILogger<RabbitMQEventBus>> (), sp, "eventbus-exchange", "eventbus-queue");
17    eventBus.Subscribe<WriteLogEvent, WriteLogEventHandler>():
18    eventBus.Subscribe<WriteLogEvent, AnalyseLogEventHandler>();
19    return eventBus;
20});
21
22services.AddTransient<WriteLogEventHandler>();
23services.AddTransient<AnalyseLogEventHandler>();

一起来看看效果,简直太完美了,我就是不想写中间表啊,这样多好!!!

Python 读取 Binlog 演示
Python 读取 Binlog 演示
.NET Core 消费 Binlog演示
.NET Core 消费 Binlog演示
RabbitMQ Dashboard 演示
RabbitMQ Dashboard 演示

本文小结

通过三篇博客的篇幅,我们实现了“利用 MySQL 的 Binlog 实现数据同步与订阅”的想法。在这个过程中,我们了解了 Binlog 的相关概念,参考微软的 eShopOnContainers 项目实现了一个基于 RabbitMQ 的 EventBus,而这一切都在这篇博客中完成了最终的“拼合”,通过 Python-Mysql-Replication 实现了 Binlog 解析,而 EventBus 则作为整个事件系统的“上帝”对所有事件处理器(EventHandler)进行统一调度,最终我们不需要关心这些事件是如何被发布到 EventBus 中的,只需要知道它对应哪一个 Event 并为它编写对应的 EventHandler 即可,除了这篇博客中提到的 Binlog 以外,实际上它还可以作为系统内的“领域事件”来实现业务上的事件驱动,譬如OrderInfoCreateEvent这个事件可以表示一个订单被创建,而关心订单状态的人则可以通过 EventHandler 来实现订阅,实现类似发短信、发邮件、发微信等等的功能,或者可以让第三方的 Web API 来消费事件中携带的信息。同理,第三方的数据在流入系统时,可以先发布到消息队列中,再通过对应的 EventHandler 来进行异步处理,极大地改善系统接口的吞吐性能,而如果在这中间抽象出来一个数据交换层出来,那么就能收获更多不一样的东西,就在写这篇博客的时候,我在 Github 上的代码被收入了微软的"北极冰川火种计划",虽然数字世界远比现实世界宽广得多,可能为这个世界减少一点“无用”的数据或者代码,应该一样可以算作是环保行为吧!

Built with Hugo
Theme Stack designed by Jimmy