Kafka实时数据同步

这篇具有很好参考价值的文章主要介绍了Kafka实时数据同步。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

1 概述

2 捕获Oracle数据到Kafka

2.1 数据捕获设置

2.2 数据发布设置

2.3 捕获到发布数据流映射

2.4 查看任务执行日志

3 订阅Kafka数据到ClickHouse

3.1 数据订阅设置

3.2 数据加载设置

3.3 订阅到加载数据流映射

3.4 查看任务执行日志

 4 校验数据一致性


1 概述

BeeDI支持实时捕获业务系统变化数据并将其发步到Kafka,也支持从Kafka订阅实时数据并写入数仓或大数据平台。

BeeDI支持Oracle、DB2、SQL Server、MySQL、达梦等交易数据库实时数据捕获(日志解析),支持SAP Hana、GreenPlum、ClickHouse、Hbase、Hive等分析数据库批量数据写入。

2 捕获Oracle数据到Kafka

2.1 数据捕获设置

Kafka实时数据同步

2.2 数据发布设置

Kafka实时数据同步

2.3 捕获到发布数据流映射

Kafka实时数据同步

2.4 查看任务执行日志

Kafka实时数据同步

3 订阅Kafka数据到ClickHouse

3.1 数据订阅设置

Kafka实时数据同步

3.2 数据加载设置

   Kafka实时数据同步   

3.3 订阅到加载数据流映射

Kafka实时数据同步

3.4 查看任务执行日志

Kafka实时数据同步

 4 校验数据一致性

Kafka实时数据同步

  文章来源地址https://www.toymoban.com/news/detail-470256.html

到了这里,关于Kafka实时数据同步的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【FLINK】Kafka数据源通过Flink-cdc进行实时数据同步

    CDC是Change Data Capture的缩写,中文意思是 变更数据获取 ,flink-cdc的作用是,通过flink捕获数据源的事务变动操作记录,包括数据的增删改操作等,根据这些记录可作用于对目标端进行实时数据同步。 下图是flink-cdc最新支持的数据源类型: kafka的数据源要通过flink-cdc进行实时数

    2024年02月12日
    浏览(43)
  • TDengine Kafka Connector将 Kafka 中指定 topic 的数据(批量或实时)同步到 TDengine

    教程放在这里:TDengine Java Connector,官方文档已经写的很清晰了,不再赘述。 这里记录一下踩坑: 1.报错 这是由于没有按照taos客户端,连机器内部调用了taos客户端程序去连接TDengine服务,只要安装TDengine Client即可。安装TDengine Client教程 2.报错 这个报错是因为我部署TDengine服

    2024年02月04日
    浏览(38)
  • flink oracle cdc实时同步(超详细)

    官方文档:https://github.com/ververica/flink-cdc-connectors/blob/release-master/docs/content/connectors/oracle-cdc.md 本文参照官方文档来记录Oracle CDC 的配置。 在本文开始前,需要先安装Oracle,有兴趣的同学可以参考博主之前写的《docker下安装oracle11g(一次安装成功)》。 如果要做oracle的实时同步

    2024年02月12日
    浏览(35)
  • 基于OGG实现Oracle实时同步MySQL

    📢📢📢📣📣📣 哈喽!大家好,我是【IT邦德】,江湖人称jeames007,10余年DBA及大数据工作经验 一位上进心十足的【大数据领域博主】!😜😜😜 中国DBA联盟(ACDU)成员,目前服务于工业互联网 擅长主流Oracle、MySQL、PG、高斯及Greenplum运维开发,备份恢复,安装迁移,性能优

    2024年02月04日
    浏览(23)
  • Flink CDC 基于Oracle log archiving 实时同步Oracle表到Mysql

    环境说明: flink 1.15.2 Oracle 版本:Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64bit Production mysql 版本:5.7 windows11 IDEA 本地运行 先上官网使用说明和案例:Oracle CDC Connector — Flink CDC documentation 1. Oracle 开启 log archiving (1).启用 log archiving         a:以DBA用户连接数据库    

    2024年02月11日
    浏览(35)
  • Flink CDC 基于Oracle log archiving 实时同步Oracle表到Mysql(无主键)

    环境说明: flink 1.15.2 Oracle 版本:Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64bit Production mysql 版本:5.7 windows11 IDEA 本地运行 具体环境设置和maven依赖请看上篇:Flink CDC 基于Oracle log archiving 实时同步Oracle表到Mysql_彩虹豆的博客-CSDN博客 现在操作的是源表和目标表都无主键数

    2024年02月15日
    浏览(34)
  • OGG实现Oracle19C到postgreSQL14的实时同步

    📢📢📢📣📣📣 哈喽!大家好,我是【IT邦德】,江湖人称jeames007,10余年DBA及大数据工作经验 一位上进心十足的【大数据领域博主】!😜😜😜 中国DBA联盟(ACDU)成员,目前服务于工业互联网 擅长主流Oracle、MySQL、PG、高斯及Greenplum运维开发,备份恢复,安装迁移,性能优

    2024年02月04日
    浏览(25)
  • rsync+inotify实时同步 和 GFS分布式文件系统概述

    目录 一、rsync+inotify实时同步 1.1.实时同步的优点 1.2.Linux内核的inotify机制 1.3.发起端配置rsync+Inotify 1.4.配置远程登陆 1.4.1.修改rsync源服务器配置192.168.190.101 ​编辑  1.4.2.配置server 192.168.190.102 二、GFS 2.1.GlusterFS简介 2.2.GlusterFS特点 2.3.GlusterFS术语 2.4.模块化堆模式架构 2.5.Gluste

    2024年04月16日
    浏览(30)
  • OGG将Oracle全量同步到kafka

    📢📢📢📣📣📣 哈喽!大家好,我是【IT邦德】,江湖人称jeames007,10余年DBA及大数据工作经验 一位上进心十足的【大数据领域博主】!😜😜😜 中国DBA联盟(ACDU)成员,目前服务于工业互联网 擅长主流Oracle、MySQL、PG、高斯及Greenplum运维开发,备份恢复,安装迁移,性能优

    2024年02月04日
    浏览(39)
  • 利用ogg微服务版将oracle同步到kafka

    ogg微服务版可以再界面上配置抽取、复制进程,不必进入到shell中进行配置,并且图形化界面可以看到更多信息。 源端安装ogg for oracle 19C , 目标端安装ogg for bigdata 21C kafka 2.2 数据库:19C 所有软件安装在同台服务器上(Oracle Linux7) 示例数据配置 选取数据库自带的hr相关表作为

    2024年02月02日
    浏览(25)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包