相关文章推荐
苦闷的木瓜  ·  python ...·  1 周前    · 
性感的枇杷  ·  lDA困惑度是负的 lda ...·  1 周前    · 
爱跑步的钥匙  ·  写 SQL 时报错 ...·  1 年前    · 
帅气的高山  ·  kotlin random int ...·  1 年前    · 

答 : 支持

验证如下:

官方说明: https://debezium.io/documentation/reference/1.5/configuration/topic-routing.html

数据库db如下

"name":"10.90.81.121-canalA", "config":{ "connector.class":"io.debezium.connector.mysql.MySqlConnector", "tasks.max":"1", "database.hostname": "你的数据库地址", "database.port": "3306", "database.user": "wys", "database.password": "wys", "database.server.id": "184051", "database.server.name":"cacanalAal", "database.history.kafka.bootstrap.servers": "kafka地址:9094", "database.history.kafka.topic":"debezium_canal", "database.include.list": "canal", "transforms":"Reroute", "transforms.Reroute.type":"io.debezium.transforms.ByLogicalTableRouter", "transforms.Reroute.topic.regex":"(.*)topic_test(.*)", "transforms.Reroute.topic.replacement":"$1canal_test"

在这里插入图片描述额外参数说明

"database.include.list": "canal",   只投递 实例下的 canal 数据库
"transforms":"Reroute",   # 默认配置
"transforms.Reroute.type":"io.debezium.transforms.ByLogicalTableRouter",  # 默认配置
"transforms.Reroute.topic.regex":"(.*)topic_test(.*)",    # 这里同步 中间包含 topic_test 的表 
"transforms.Reroute.topic.replacement":"$1canal_test"  # 具体如上规则的表 将投递到  cacanalAal.canal.canal_test topic 中
// 最终生成的某张表的kafka topic为:(database.server.name).数据库名.表名
    "name":"debezium-test-5017",     // 连接器名称
    "config":{        // 连接器配置
        "connector.class":"io.debezium.connector.mysql.MySqlConnector",
        "database.hostname":"4.4.4.4",   //MySQL数据库主机
        "database.port":"5017",     // MySQL数据库端口
        "database.user":"test",    // MySQL数据库使用用户
        "database.password":"123",     // 用户密码
        "database.server.id":"316545017",
        "database.server.name":"debezium",       // 唯一的服务器逻辑名称。该名称将用作所有Kafka topic的前缀。
        "database.history.kafka.bootstrap.servers":"1.1.1.1:7091,2.2.2.2:7091,3.3.3.3:7091",
        "database.history.kafka.topic":"debezium_test"
-- 其余常用配置
"database.include.list": "zztest"      // 仅监控哪个库的更改,默认监控所有数据库,以下均可配置为正则表达式
"database.exclude.list": "zztest"      // 不监控哪个库的更改,不能和database.include.list同时使用
"table.include.list": "t1"          // 监控哪些表的更改
"table.exclude.list": "t1"          // 不监控哪些表的更改,不能和table.include.list同时使用
"column.include.list": "col1"          // 监控哪些字段的更改
"column.exclude.list": "col1"          // 不监控哪些字段的更改,不能和column.include.list同时使用

如果投递成功 我这里 应该 会生成两个 topic

其中 表 topic_test和 表 topic_test1 和 表 topic_test2 对应一个 topic cacanalAal.canal.canal_test
表 8888 对应 topic cacanalAal.canal.888
在这几张表中 分别插入一些数据
然后去查询 topic 的log
cd /service/software/debezium/kafka_2.13-2.5.0/log
执行 ls 如下
在这里插入图片描述
验证 数据是否进入 对应的 topic
grep -rn ‘topic_test’ cacanalAal.canal-/.log
grep -rn ‘topic_test1’ cacanalAal.canal-/.log
grep -rn ‘topic_test2’ cacanalAal.canal-/.log
grep -rn ‘8888’ cacanalAal.cana*/*.log
结果如下

Debezium同步多个表投递到一个TopicDebezium 是否支持同步 多个表投递到一张topic?答 : 支持验证如下:官方说明: https://debezium.io/documentation/reference/1.5/configuration/topic-routing.html数据库db如下配置如下{ "name":"10.90.81.121-canalA", "config":{ "connector.class":"io.deb
Debezium系列之:记录一次生产环境debezium版本升级步骤一、保存Debezium所有connector的配置二、保存debezium connector binlog文件的消费位置 一、保存Debezium所有connector的配置 使用代码一次性保存所有运行的debezium connector的配置,主要用来防止debezium升级过程中出现意外,当出现意外的情况下,可以使用代码一次性快速提交所有的connector,快速恢复debezium connector 部分核心代码如下所示:
数仓实时数据同步 debezium背景debezium 简介架构基本概念例子目前遇到的问题 数据湖将源库的数据同步到hive数仓ods层,或直接在kafka中用于后面计算。源库包括mysql、postgresql、sqlserver、oracle,大部分是mysql数据库。当前采用的sqoop T+1全量或增量抽取的方式,时效性低,delete的数据可能无法被正确处理。 选择debezium的原因:数据源支持众多,使用的组件仅仅是kafka,需要进行的开发少;debezium使用kafka-conne
Debezium系列之:把多个数据库中多张的数据发送到一个Kafka topic中一、Debezium专栏博客每周更新计划二、需求描述三、参数设置四、提交debezium connector参数示例 一、Debezium专栏博客每周更新计划 后续每周在日常更新Debezium技术文章的同时,会以一定频率同步更新Debezium源码阅读系列文章,欢迎与博主交流Debezium相关技术,一起加油。 二、需求描述 需要把一个数据库中的多张的数据,全部导入同一个kafka topic
GreatSQL社区原创内容未经授权不得随意使用,转载请联系小编并注明来源。 GreatSQL是MySQL的国产分支版本,使用上与MySQL一致。 一、Debezium介绍 摘自官网: Debezium is a set of distributed services to capture changes in your databases so that your applications can see those changes and respond to them. Debezium recor
近期公司在响应国家软件规范要求,重点项目的数据库采用开源版postgresql(下文简称pg),业务端依然使用oracle。因此为了保证pg到oracle的数据同步问题,经过调研采用Debezium开源项目,实现 pg -> kafka-> oracle 的数据实时同步。 开始介绍重点… Debuzium简介 Debezium是Apache Kafka Connect的一组源连接器(source端),通过款实现剖析数据库中binlog日志,捕获数据,拷贝到kafka中,实现数据的实时抽取。
1. 确定需求和功能:确定需要哪些功能,比如发布招聘信息、搜索职位、注册登录、个人信息管理等。 2. 数据库设计:设计数据库结构,包括用户、职位、招聘公司等。 3. 搭建Spring Boot项目:使用Spring Initializr创建一个基本的Spring Boot项目。 4. 配置数据库连接:在项目中添加数据库的配置信息,并连接数据库。 5. 实现用户模块:包括用户注册、登录、个人信息管理等功能。 6. 实现职位模块:包括发布职位、搜索职位等功能。 7. 实现招聘公司模块:包括招聘公司信息管理、发布招聘信息等功能。 8. 实现简历模块:包括简历的上传、编辑、投递等功能。 9. 实现站内信模块:包括发送和接收站内信等功能。 10. 实现权限管理:使用Spring Security实现用户权限管理。 11. 测试和部署:完成代码编写后进行测试,最后将项目部署到服务器上。 以上只是一个简单的流程,具体实现还需要根据需求进行调整和完善。