大数据-Storm流式框架(七)---Storm事务

这篇具有很好参考价值的文章主要介绍了大数据-Storm流式框架(七)---Storm事务。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

storm 事务

需求


storm 对于保证消息处理,提供了最少一次的处理保证。最常见的问题是如果元组可以被
重发,可以用于计数吗?不会重复计数吗?
strom0.7.0 引入了事务性拓扑的概念,可以保证消息仅被严格的处理一次。因此可以以完
全精确的、可扩展的、容错的方式处理类似计数这类的情形。
跟分布式 RPC 类似,事务性拓扑也不是 storm 的新特性,而仅仅是在 storm 原语如数据
流、spout、bolt 和拓扑基础上的高层抽象。

概念


我们先研究最简单的情形,然后进行一个迭代设计,直到达到 storm 的设计级别。

设计一


事务性拓扑的核心观点是数据处理的强有序。
一次只处理一个元组,直到该元组被成功处理,才开始处理下一个元组。
每个元组关联一个事务 ID。
如果元组处理失败,需要重发,重发的时候使用相同的事务 ID。

事务 ID 是一个整数,该整数对每个元组都会增长,也就是第一个元组的事务 ID 是 1,第
二个是 2,以此类推。
强有序保证了即使在元组重发的情况下对该元组也仅仅处理一次。
假设我们要统计一下数据流中元组的全局计数。应该将计数和最新的事务 ID 一起作为一条
记录存储到数据库中。
只能是数据库中的事务 ID 和当前元组的事务 ID 不同的时候,更新数据库中的数据。
3tx c8 db
3tx c12 tuple


考虑两种情形:


1、 数据库中的事务 ID 和当前的事务 ID 不同:由于事务的强有序,数据库中的计数不包
括当前元组。我们可以安全地更新数据库中的计数和事务 ID。
2、 数据库中的事务 ID 和当前元组的事务 ID 相同:当前元组已经统计在数据库中的计数
中了,放弃这次对数据库的更新。因为当前的元组肯定是在更新完数据库之后,通知
storm 处理成功之前出错了。
而且,这种拓扑的设计可以在同一个事务内更新很多源的状态,而且是精确地只处理一
次。如果某些源更新失败了需要重发元组,已经更新成功的源会跳过重试,失败的源会合
理地处理重试。


但是一次只处理一个元组有很大的缺陷:


1、因为等前一个元组完全处理了再处理下一个元组是一件很恐怖的事情 ,效率低,
时间长。
2、大量调用数据库(起码每个元组一次),
3、没有发挥 storm 并发的优势。
因此这种设计不是可扩展的。

设计二


1、在每个事务中处理一批元组。
如果是全局计数,一批元组的数量可以一次性地更新到数据库中。
2、如果批处理失败,就重发这一批失败的元组。
3、不能给每个元组一个事务 ID,而应该给一批元组一个事务 ID
4、而且各批次之间强有序。


看下图:

大数据-Storm流式框架(七)---Storm事务,Storm,大数据,storm

如果一个批次处理1000个元组,则对数据库的调用就比设计一减少了1000倍。另外,它也利用了storm的并发优势,因为一个批次的元组是可以并发处理的。

依然没有高效地利用资源。因为拓扑中的worker花费了很多时间在等待其他部分的计算完成。例如:

大数据-Storm流式框架(七)---Storm事务,Storm,大数据,storm

当bolt1完成了它的处理,它会等待其他的bolt的处理完成之后才可以接收到spout发送的下一批数据。

设计三(storm的设计)

一个关键的认知在于:在批处理中并不是所有的步骤都需要强有序

storm通过将一个批的计算划分为两步骤来实现:

  1. 处理阶段:这是可以并行处理很多批的阶段
  2. 提交阶段:该阶段是各批强有序的。如果批次1没有提交成功,是不会提交批次2的。

两步骤作为一个整体,称为“事务”。在一个给定的时刻很多批都在进行计算,但是只有一个批次处于提交阶段。不管是在处理阶段还是在提交阶段,如果一个批次的元组处理失败了,整个事务重新执行(两个阶段)。

设计细节

当使用事务拓扑的时候,storm进行如下处理:

  1. 管理状态:事务性拓扑的所有必须的状态都存储于Zookeeper中。包括当前的事务ID以及定义了每个批次参数的元数据。
  2. 事务调度:storm管理必要的所有数据以决定在任意一个时点哪个事务应该处于处理阶段还是提交阶段
  3. 错误检测:storm利用确认机制框架高效地确定一个批次是成功处理了、成功提交了,还是失败了。storm会恰当地进行重发。用户不需要做任何的确认或锚标记——storm来管理这一切。
  4. 一流的批处理API:storm在普通bolt之上设计了API用于元组的批处理。storm管理所有的调度以确认何时一个任务收到了某个事务的所有元组。storm也会清除或累加每个事务的状态(就像部分计数一样)。

最后,storm需要一个源队列以进行精确的消息批的重发。Apache Kafka就非常适合这种任务的spout,storm-kafka包含了Kafka事务性spout的具体实现。

事务拓扑API

bolt

在事务拓扑中存在三种bolt:

  1. BasicBolt:该bolt不处理批的元组,而仅仅是基于单个元组进行处理并发射。
  2. BatchBolt:该bolt处理批的元组。对每个元组调用execute方法,当一个批次处理完之后就调用finishBatch方法。
  3. 标记为提交器的bolt:该bolt和普通的bolt唯一的区别在于何时调用finishBatch方法。提交器的finishBatch方法在提交阶段调用。保证在提交阶段,所有前置的批都已经成功提交,并且当它提交成功,就完成了它的使命。两种方式将BatchBolt标记为提交器,要么实现ICommitter接口,要么在TransactionalTopologyBuilder中调用setCommitterBolt方法设置bolt。
处理阶段和提交阶段

为了区分提交阶段和处理阶段的差别,让我们看一个案例:

大数据-Storm流式框架(七)---Storm事务,Storm,大数据,storm

在该拓扑中,只有标记为红色的才是提交器。

在处理阶段,bolt A处理完spout发送的一个批的元组,调用finishBatch方法将它的元组发送给bolt B和Bolt C。Bolt B是一个提交器,因此它会调用execute方法来处理所有的元组但是不会调用finishBatch方法。Bolt C的finishBatch方法也不会调用,因为它不知道是否已经接收了所有来自B的元组(因为bolt B在等待事务提交)。最后,bolt D会接收通过调用C发送过来的任何元组。

只要不是提交事务,B不会调用finishBatch,C不是提交器,也不调用finishBatch,因为它不知道是否接收了B全部的元组。

当批提交的时候,调用B的finishBatch方法。一旦提交完成,C知道它已经接收了所有的元组并调用finishBatch方法。最后,D会接收到完成的批并调用finishBatch方法。

注意,D是一个提交器,当它接收了批的所有元组,不需要等待第二个提交的信号。因为它在提交阶段已经接收到了整个批的数据,直接提交并完成事务。

提交器bolt的行为和提交阶段的batch bolt很像。唯一的区别在于提交器在事务的处理阶段不会调用finishBatch方法。

确认

在事务拓扑中我们不需要做任何的确认和锚标记。

由storm管理。

确认策略进行了极大的优化。

事务的失败

当使用普通bolt的时候,可以调用OutputCollector的fail方法让整个元组树上的元组失败。由于事务拓扑隐藏了确认框架的细节,它们提供了一个不同的让批失败的方法。直接抛出FailedException。跟普通异常不同,该异常只会导致特定批失败并重发,不会让整个进程宕掉。

事务性spout

TransactionalSpout接口跟普通的Spout接口完全不同。TransactionalSpout的实现类发射元组的批,并且必须保证同批元组永远以相同的事务ID发射。

事务spout看起来像这样:

大数据-Storm流式框架(七)---Storm事务,Storm,大数据,storm

左边的调度器是storm一个普通的spout,当需要发射事务批元组的时候它会挨个儿发送元组。发射器的执行跟storm的bolt很像,负责发射批中的元组。发射器使用全分组订阅调度器的"batch emit"流。

TransactionalSpout在zookeeper中存储少量状态,用于对发出的元组进行幂等,即对于相同的事务id重发的时候要保证数据是一样的。如果获取不到一样的数据,可以使用非幂等事务spout。

分区事务spout

对于事务spout一个常见的情形是从跨多个队列的一组分区中读取消息。例如,这就是TransactionalKafkaSpout做的事情。IPartitionedTransactionalSpout自动执行管理每个分区的状态的簿记工作,以确保幂等可重放性。

配置

对于事务性拓扑有两个重要的配置:文章来源地址https://www.toymoban.com/news/detail-722015.html

  1. zookeeper:默认,事务拓扑在同一个zookeeper实例中保存状态信息以管理storm集群。可以通过"transactional.zookeeper.servers"和"transactional.zookeeper.port"配置zookeeper。
  2. 允许一次处理的批数量:必须设置一次处理几个批的限制数字。使用"topology.max.spout.pending"。如果不配置,默认是1。
数据流如何工作
    1. 事务spout是一个包含了调度器spout和发射器bolt的子拓扑。
    2. 调度器是一个并行度为1的普通spout。
    3. 发射器是一个并行度为P的bolt,使用全分组订阅调度器spout的"batch"流。
    4. 当调度器spout确认了事务应该进入处理阶段了,就发射包含TransactionalAttempt和元数据的事务元组到"batch"流。
    5. 由于使用了全分组,每个发射器都会接收到通知,知道该发射事务中它们自己部分的元组了
    6. 在整个拓扑中,storm自动管理锚标记和确认机制,以确认何时事务完成了处理阶段。这里的关键是“根元组由调度器创建”,如果处理成功了,调度器会接收到确认消息,如果不管什么原因处理不成功(失败或超时),则接收到"fail"。
    7. 如果处理阶段成功了,所有前置的事务也成功提交了,调度器发射一个包含了TransactionAttempt的元组给"commit"流。
    8. 所有提交的bolt通过全分组订阅提交流信息,因此它们会接收到一个什么时候发生提交的通知。
    9. 跟处理阶段一样,调度器使用确认框架确认提交阶段是否成功。如果收到ack,就在zookeeper中将该事务标记为已完成。

到了这里,关于大数据-Storm流式框架(七)---Storm事务的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大数据组件之storm简介

    Storm 是一款由 Twitter 开发的分布式实时计算系统,是一款用于处理大规模数据流的工具。随着大数据技术的快速发展,实时计算和实时数据处理已经成为了现代企业数据处理的必备技能,而 Storm 的出现为这一领域提供了强大的支持。在本文中,我们将为您详细介绍 Storm 这款

    2024年04月28日
    浏览(25)
  • 大数据与云计算——Storm详细配置(保姆级教程!)

    当今世界正处于云计算和大数据的快速发展阶段,而Storm作为一种高效、可靠的实时计算框架,受到了广泛的关注和应用。在这篇文章中,我们将从头开始,将提供一份保姆级教程,帮助进行相关配置和运行WordCountTopology。向您展示如何配置Storm环境。我们将详细介绍所需的软

    2024年02月03日
    浏览(38)
  • 数据架构的实时分析:Apache Flink 和 Apache Storm 的比较

    实时数据处理在大数据领域具有重要意义,它可以帮助企业更快地获取和分析数据,从而更快地做出决策。随着数据量的增加,传统的批处理方法已经不能满足企业的需求,因此需要使用实时数据处理技术。 Apache Flink 和 Apache Storm 是两个流行的实时数据处理框架,它们都可以

    2024年01月23日
    浏览(41)
  • 大数据技术学习之Storm、Spark学习手册,这还不码住学起来

    Storm与Spark、Hadoop这三种框架,各有各的优点,每个框架都有自己的最佳应用场景。所以,在不同的应用场景下,应该选择不同的框架。 1.Storm是最佳的流式计算框架,Storm由Java和Clojure写成,Storm的优点是全内存计算,所以它的定位是分布式实时计算系统,按照Storm作者的说法

    2024年02月04日
    浏览(31)
  • storm统计服务开启zookeeper、kafka 、Storm(sasl认证)

    部署storm统计服务开启zookeeper、kafka 、Storm(sasl认证) 当前测试验证结果: 单独配置zookeeper 支持acl 设置用户和密码,在storm不修改代码情况下和kafka支持 当kafka 开启ACL时,storm 和ccod模块不清楚配置用户和密码。 使用python脚本连接kafka用户和密码是能成功发送消息。 当前部署

    2024年01月22日
    浏览(41)
  • Storm学习之使用官方Docker镜像快速搭建Storm运行环境

    Apache Storm 官方也出了Docker 镜像 https://hub.docker.com/_/storm/ 本文我们就基于官方镜像搭建一个 Apache Storm 2.4 版本的运行环境,供大家后续学习。 有问题可以参考issue 解决, 我的安装过程一路都很顺畅。所以基本上没有看下面是我的详细操作和截图 。 可以说网上的乱七八糟的教

    2024年02月14日
    浏览(38)
  • 大数据平台安装实验: ZooKeeper、Kafka、Hadoop、Hbase、Hive、Scala、Spark、Storm

    ​ 在大数据时代,存在很多开源的分布式数据采集、计算、存储技术,本实验将在熟练掌握几种常见Linux命令的基础上搭建几种常用的大数据采集、处理分析技术环境。 相关安装包下载: 链接:https://pan.baidu.com/s/1Wa2U3qstc54IAUCypcApSQ 提取码:lcd8 Hadoop大数据平台所需工具、软件

    2023年04月09日
    浏览(80)
  • “1+X“大数据平台运维职业技能等级证书(中级)模拟题-Storm组件部署

    目录 一、前置说明 二、Storm相关知识(必看,仅应对考试) 三、Storm部署 3.1、Zookeeper集群安装并启动 3.2、解压Storm,并配置conf/storm.yaml 3.3、启动storm集群 3.3.1、前台运行 3.3.2、挂载后台运行 3.4、web查看 这个是我自己电脑的环境,考试会变动 环境表 主机名 IP地址 masterNode1

    2024年02月07日
    浏览(48)
  • MacBook安装Storm与启动

    MacBook安装Storm与启动 官方下载地址: https://storm.apache.org/downloads.html 官方下载 apache-storm-1.2.2.tar.gz MacBook Linux安装zookeeper 访问ui: http://127.0.0.1:8081/index.html 参考链接: https://www.cnblogs.com/freeweb/p/5234139.html https://www.cnblogs.com/senlinyang/p/7832324.html https://www.cnblogs.com/zhaojiankai/p/7257617.html

    2024年01月18日
    浏览(30)
  • Spark, Storm, Flink简介

    本文主要介绍Spark, Storm, Flink的区别。 Spark和Storm都是大数据处理框架,但它们在设计理念和使用场景上有一些区别: 实时性:Storm是一个实时计算框架,适合需要实时处理的场景;而Spark是一个批处理框架,虽然其提供的Spark Streaming模块可以进行近实时处理,但其本质上还是

    2024年04月12日
    浏览(26)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包