Debezium日常分享系列之:流式传输 Cassandra

这篇具有很好参考价值的文章主要介绍了Debezium日常分享系列之:流式传输 Cassandra。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

选择Cassandra 这个 NoSQL 数据库,主要是因为它的高可用性、水平可扩展性以及处理高写入吞吐量的能力。

一、批量 ETL 选项

将 Cassandra 引入我们的基础设施后,我们的下一个挑战是找到一种方法将 Cassandra 中的数据公开给我们的数据仓库 BigQuery,以进行分析和报告。我们快速构建了一个 Airflow hook 和操作符来执行满载。这显然无法扩展,因为它会在每次加载时重写整个数据库。为了扩展管道,我们评估了两种增量加载方法,但两者都有其缺点:

  • 范围查询。这是一种常见的 ETL 方法,其中通过范围查询定期(例如每小时或每天)提取数据。任何熟悉 Cassandra 数据建模的人都会很快意识到这种方法是多么不切实际。 Cassandra 表需要建模以优化生产中使用的查询模式。在大多数情况下,添加此查询模式进行分析意味着使用不同的集群键克隆表。 RDBMS 人员可能会建议二级索引来支持这种查询模式,但 Cassandra 中的二级索引是本地的,因此这种方法本身会带来性能和扩展问题。
  • 处理未合并的 SSTable。 SSTables 是 Cassandra 的不可变存储文件。 Cassandra 提供了 sstabledump CLI 命令,可将 SSTable 内容转换为人类可读的 JSON。然而,Cassandra 是建立在日志结构合并 (LSM) 树概念之上的,这意味着 SSTable 会定期合并到新的压缩文件中。根据压缩策略,在带外检测未合并的 SSTable 文件可能具有挑战性(我们后来了解了 Cassandra 中的增量备份功能,该功能仅备份未压缩的 SSTable;因此这种方法也能发挥作用。)

考虑到这些挑战,在为 MySQL 构建和运营流数据管道后,我们开始探索 Cassandra 的流选项。

二、流媒体选项

双写
Debezium日常分享系列之:流式传输 Cassandra,日常分享专栏,Debezium,日常分享系列,流式传输,Cassandra
这个想法是每次在 Cassandra 上执行写入操作时都会发布到 Kafka。这种双重写入可以通过内置触发器或客户端周围的自定义包装器来执行。这种方法存在性能问题。首先,由于我们现在需要写入两个系统而不是一个系统,因此写入延迟增加了。更重要的是,当对一个系统的写入由于超时而失败时,写入是否成功是不确定的。为了保证两个系统上的数据一致性,我们必须实现分布式事务,但多次往返共识会增加延迟并进一步降低吞吐量。这违背了高写入吞吐量数据库的目的。

三、Kafka 作为事件源

Debezium日常分享系列之:流式传输 Cassandra,日常分享专栏,Debezium,日常分享系列,流式传输,Cassandra
这个想法是写给 Kafka,而不是直接写给 Cassandra;然后通过消费来自 Kafka 的事件将写入应用到 Cassandra。事件溯源是当今非常流行的方法。但是,如果您已有直接写入 Cassandra 的现有服务,则需要更改应用程序代码并进行重要的迁移。这种方法还违反了读你所写的一致性:如果一个进程执行写入,那么执行后续读取的同一进程必须观察写入的效果。由于写入是通过 Kafka 路由的,因此发出写入和应用写入之间会存在延迟;在此期间,读取 Cassandra 将导致数据过时。这可能会导致不可预见的生产问题。

四、解析提交日志

Debezium日常分享系列之:流式传输 Cassandra,日常分享专栏,Debezium,日常分享系列,流式传输,Cassandra
Cassandra 在 3.0 中引入了变更数据捕获 (CDC) 功能来公开其提交日志。提交日志是 Cassandra 中的预写日志,旨在在机器崩溃时提供持久性。它们通常在冲洗时被丢弃。启用 CDC 后,它们会在刷新时传输到本地 CDC 目录,然后可由 Cassandra 节点上的其他进程读取。这允许我们使用与 MySQL 流管道中相同的 CDC 机制。它将生产运营与分析分离,因此不需要应用工程师进行额外的工作。

最终,在考虑了吞吐量、一致性和关注点分离之后,最后一个选项——解析提交日志——成为了最有力的竞争者。

五、提交日志深入探讨

除了公开提交日志之外,Cassandra 还提供 CommitLogReader 和 CommitLogReadHandler 类来帮助进行日志的反序列化。看来艰苦的工作已经完成,剩下的就是应用转换——将反序列化表示转换为 Avro 记录并将其发布到 Kafka。然而,当我们进一步深入研究 CDC 功能和 Cassandra 本身的实现时,我们意识到存在许多新的挑战。

1.延迟处理

提交日志仅在 CDC 目录已满时到达,在这种情况下,它将被刷新/丢弃。这意味着记录事件和捕获事件之间存在延迟。如果执行很少或不执行写入,则事件捕获的延迟可能会任意长。

2.空间管理

在MySQL中,您可以设置binlog保留,以便在配置的保留期限后自动删除日志。然而在 Cassandra 中没有这样的选项。一旦提交日志传输到CDC目录,处理后必须进行消费以清理提交日志。如果 CDC 目录的可用磁盘空间超过给定阈值,则对数据库的进一步写入将被拒绝。

3.重复的事件

单个 Cassandra 节点上的提交日志并不反映对集群的所有写入;它们仅反映对节点的写入。这使得有必要在所有节点上处理提交日志。但如果复制因子为 N,则每个事件的 N 个副本会发送到下游。

4.无序事件

对单个 Cassandra 节点的写入在到达时会被连续记录。但是,这些事件从发出时起可能会无序到达。这些事件的下游消费者必须了解事件时间并实现与 Cassandra 的读取路径类似的最后写入获胜逻辑,以获得正确的结果。

5.带外架构更改

表的架构更改通过gossip protocol进行通信,并且不会记录在提交日志中。因此,只能尽力检测架构中的更改。

6.行数据不完整

Cassandra 不会执行先读后写的操作,因此更改事件不会捕获每个列的状态,它们仅捕获已修改列的状态。这使得更改事件不如整行可用时有用。

一旦我们深入了解 Cassandra 提交日志,我们就会根据给定的约束重新评估我们的要求,以设计最小可行的基础设施。

六、最低限度可行的基础设施

借鉴最小可行产品理念,我们希望设计一个具有最少功能和要求的数据管道,以满足我们的直接客户的需求。对于 Cassandra CDC,这意味着:

引入 CDC 不应对生产数据库的健康状况和性能产生负面影响;运营放缓和系统停机比分析管道延迟的成本要高得多

查询数据仓库中的 Cassandra 表应该与查询生产数据库的结果相匹配(排除延迟);具有重复和/或不完整的行会增加每个最终用户的后处理工作量有了这些标准,我们开始集思广益寻找解决方案,并最终提出了三种方法:

1.无状态流处理

  • 该解决方案的灵感来自 Datastax 的高级复制博客文章。
  • 这个想法是在每个 Cassandra 节点上部署一个代理来处理本地提交日志。每个代理都被视为基于分区键的写入子集的“主要”,这样每个事件都只有一个主要代理。
  • 然后在CDC期间,为了避免重复事件,每个代理仅将事件发送到Kafka(如果它是该事件的主代理)。
  • 为了处理最终的一致性,每个代理都会在事件到达时将其分类到每个表的时间切片窗口中(但不会立即发布它们);
  • 当窗口到期时,该窗口中的事件将被散列,并将散列与其他节点进行比较。如果它们不匹配,则从不一致的节点获取数据,以便最后一次写入获胜可以解析正确的值。
  • 最后,该窗口中更正的事件将被发送到 Kafka。
  • 任何超出时间切片窗口的无序事件都必须记录到无序文件中并单独处理。
  • 由于重复数据删除和排序是在内存中完成的,因此对代理故障转移导致数据丢失、影响生产数据库的 OOM 问题以及此实现的整体复杂性的担忧阻止了我们进一步探索它。

2.有状态流处理

  • 该解决方案功能最丰富。
  • 这个想法是,每个 Cassandra 节点上的代理将处理提交日志并将事件发布到 Kafka,而无需重复数据删除和排序。
  • 然后,流处理引擎将消耗这些原始事件并完成繁重的工作(例如使用缓存过滤掉重复事件,使用事件时间窗口管理事件顺序,以及通过在状态存储上执行先读后写来捕获未修改列的状态) ),然后将这些派生事件发布到单独的 Kafka 主题。
  • 最后,KCBQ 将用于消费该主题中的事件并将其上传到 BigQuery。这种方法很有吸引力,因为它一般性地解决了问题——任何人都可以订阅后一个 Kafka 主题,而无需自己处理重复数据删除和排序。
  • 然而,这种方法会带来大量的运营开销;我们必须维护一个流处理引擎、一个数据库和一个缓存。

3.读取时处理

  • 与之前的方法类似,其想法是处理每个 Cassandra 节点上的提交日志并将事件发送到 Kafka,无需重复数据删除和排序。
  • 与之前的方法不同,流处理部分被完全消除。相反,原始事件将通过 KCBQ 直接上传到 BigQuery。视图是在原始表之上创建的,用于处理重复数据删除、排序和合并列以形成完整的行。由于 BigQuery 视图是虚拟表,因此每次查询视图时都会延迟处理。为了防止视图查询变得过于昂贵,视图将定期具体化。这种方法利用 BigQuery 的大规模并行查询引擎,消除了操作复杂性和代码复杂性。然而,缺点是非 KCBQ 下游消费者必须自己完成所有工作。
  • 鉴于我们流式 Cassandra 的主要目的是数据仓库,我们最终决定实现读时处理。它为我们现有的用例提供了基本功能,并提供了将来扩展到上述其他两个更通用的解决方案的灵活性。

七、Cassandra数据库对Gossip协议的应用

Cassandra数据库使用Gossip协议主要有以下几个用处:

节点发现和自动加入:Cassandra集群中的节点使用Gossip协议进行相互通信,通过定期交换消息来发现新加入的节点并自动将其加入到集群中。这使得节点的动态加入和离开成为可能,而无需依赖于集中式的节点发现服务。

全局状态信息的传播:Cassandra使用Gossip协议来传播集群中节点的状态信息,如节点的健康状态、数据分布信息等。通过收集和传播这些信息,集群中的节点可以更好地了解整个系统的状态,并做出相应的调整和决策。

数据一致性的维护:Cassandra使用Gossip协议来传播和更新副本之间的数据变更信息。节点会将数据变更信息传播给其他节点,以保持副本之间的数据一致性。这种基于Gossip协议的数据传播方式可以在分布式环境下有效地维护数据的一致性。

故障检测和恢复:通过Gossip协议,节点可以检测到其他节点的故障,并将故障信息传播给其他节点。这使得集群可以快速地检测到故障节点并采取相应的恢复措施。

总的来说,Cassandra使用Gossip协议来实现分布式环境下的节点发现、全局状态信息传播、数据一致性维护和故障检测恢复等功能,确保集群的可靠性、容错性和一致性。文章来源地址https://www.toymoban.com/news/detail-542722.html

到了这里,关于Debezium日常分享系列之:流式传输 Cassandra的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Debezium日常分享系列之:Debezium 信号发送和通知 - 第 1 部分

    本系列文章将介绍 Debezium 提供的信号和通知功能,并讨论与平台交互的可用渠道。在本系列的后续部分中,我们将更深入地研究自定义信令通道并探索其他主题,例如 JMX 信令和通知。 在当今互连的软件应用程序和系统中,与其他产品无缝集成对于构建强大而高效的解决方案

    2024年02月16日
    浏览(39)
  • Debezium日常分享系列之:使用 Debezium 连接器实现密钥外部化

    隐藏数据库的账号和密码 当 Debezium 连接器部署到 Kafka Connect 实例时,有时需要对 Connect API 的其他用户隐藏数据库凭据。 让我们回顾一下 MySQL Debezium connector的连接器注册请求: 用户名和密码以纯字符串形式传递给 API。更糟糕的是,任何有权访问 Kafka Connect 集群及其 REST AP

    2024年02月16日
    浏览(44)
  • Debezium系列之:基于debezium将mysql数据库数据更改流式传输到 Elasticsearch和PostgreSQL数据库

    基于 Debezium 的端到端数据流用例,将数据流式传输到 Elasticsearch 服务器,以利用其出色的功能对我们的数据进行全文搜索。 同时把数据流式传输到 PostgreSQL 数据库,通过 SQL 查询语言来优化对数据的访问。 下面的图表显示了数据如何流经我们的分布式系统。首先,Debezium M

    2024年02月13日
    浏览(63)
  • 【天衍系列 05】Flink集成KafkaSink组件:实现流式数据的可靠传输 & 高效协同

    Flink版本: 本文主要是基于Flink1.14.4 版本 导言: Apache Flink 作为流式处理领域的先锋,为实时数据处理提供了强大而灵活的解决方案。其中,KafkaSink 是 Flink 生态系统中的关键组件之一,扮演着将 Flink 处理的数据可靠地发送到 Kafka 主题的角色。本文将深入探讨 KafkaSink 的工作

    2024年02月20日
    浏览(63)
  • ChatGPT流式传输(stream=True)的实现-OpenAI API 流式传输

    默认情况下,当请求OpenAI的API时,整个响应将在生成后一次性发送回来。如果需要的响应比较复杂,就会需要很长时间来等待响应。 为了更快地获得响应,可以在请求API时选择“流式传输”。 要使用流式传输,调用API时设置 stream=True 。这将返回一个对象,以 data-only server-

    2024年02月08日
    浏览(72)
  • Debezium系列之:监控 Debezium

    Debezium JMX相关的技术博客: Debezium系列之:安装jmx导出器监控debezium指标 Debezium系列之:为Debezium集群JMX页面增加监控,JMX页面出现异常时发送飞书告警,确保任务能够获取debezium集群指标 Debezium系列之:深入解读Debezium重要的jmx指标 Debezium系列之:mysql JMX metrics指标详细解读

    2024年02月11日
    浏览(53)
  • java http流式传输

    Java中的HTTP流式传输是指在Java应用程序中使用流的方式来发送和接收HTTP请求和响应。这种方式通常用于在Java应用程序中处理大量数据或实时数据流。 Java中有许多不同的库和框架可用于实现HTTP流式传输,例如Apache HttpComponents、Java Async HTTP Client(AsyncHttpClient)和Java WebSocket。这些

    2024年02月16日
    浏览(53)
  • Debezium系列之:在 Kubernetes 上部署 Debezium

    K8s相关知识可以阅读博主以下几篇技术博客: K8s系列之:搭建高可用K8s v1.23.5集群详细步骤,3个master节点,3个Node节点 K8s系列之:Pod的基本用法 k8s系列之:kubectl子命令详解一 k8s系列之:kubectl子命令详解二 更多K8s知识点详见博主K8s系列文章 更多Debezium内容请阅读博主Debezi

    2024年02月11日
    浏览(69)
  • websocket 流式传输 交易订单更新

    对于从事加密货币行业的任何人来说,使用 REST api 从交易所查询实时数据并不总是最佳做法,原因有很多: 效率低下:每个查询都需要时间,并且会显着影响性能,尤其是对于高频策略。 交易所施加的限制很容易被打破,例如Binance的硬限制为每分钟 1200 个请求权重。 您只

    2023年04月18日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包