Apache Hudi 1.x 版本重磅功能展望与讨论

这篇具有很好参考价值的文章主要介绍了Apache Hudi 1.x 版本重磅功能展望与讨论。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Apache Hudi 社区正在对Apache Hudi 1.x版本功能进行讨论,欢迎感兴趣同学参与讨论,PR链接:https://github.com/apache/hudi/pull/8679/files

摘要

此 RFC 提议对 Hudi 中的事务数据库层进行令人兴奋和强大的重构,以推动未来几年整个社区的持续创新。 在过去的几年里,社区成长(https://git-contributor.com/?chart=contributorOverTime&repo=apache/hudi)) 超过 6 倍的贡献者,这个 RFC 是围绕核心愿景澄清和调整社区的绝佳机会。 此 RFC 旨在作为此讨论的起点,然后征求反馈、接受新想法并协作建立共识,以实现有影响力的 Hudi 1.X 愿景,然后提炼出构成第一个版本——Hudi 1.0 的内容。

项目状态

众所周知,Hudi 最初于 2016 年在 Uber 创建,用于解决 大规模数据摄取](https://www.uber.com/blog/uber-big-data-platform/)) 和 [增量数据处理] ](https://www.uber.com/blog/ubers-lakehouse-architecture/)) 问题,后来 捐赠](https://www.uber.com/blog/apache-hudi/)) 给 ASF。自 2020 年作为顶级 Apache 项目毕业以来,社区在 [流数据湖愿景](https://hudi.apache.org/blog/2021/07/21/streaming-data-lake-platform),通过在一组强大的平台组件之上进行增量处理,使数据湖更加实时和高效。最新的 0.13 汇集了几个显着的功能来增强增量数据管道,包括 [RFC-51 Change Data Capture](https://github.com/apache/hudi/blob/master/rfc/rfc-51/rfc- 51.md),更高级的索引技术consistent hash indexes](https://github.com/apache/hudi/blob/master/rfc/rfc-42/rfc-42.md)) 和诸如 早期冲突检测](https://github.com/apache/hudi/blob/master/rfc/rfc-56/rfc-56.md)) 之类的创新。

如今 Hudi 用户](https://hudi.apache.org/powered-by)) 能够使用 Hudi 作为数据湖平台解决终端用例,该平台在可互操作的开放存储格式之上提供大量自动化。用户可以从文件/流系统/数据库中增量摄取,并将该数据插入/更新/删除到 Hudi 表中,并提供多种高性能索引选择。由于记录级元数据和增量/CDC 查询等核心设计选择,借助强大的流处理支持,用户能够始终如一地将摄取的数据链接到下游管道,近年来在 Apache Spark、Apache Flink 和 Kafka Connect 等框架中。 Hudi 表格服务会自动处理这些摄取和派生的数据,以管理表格簿记、元数据和存储布局的不同方面。最后,Hudi 对不同目录的广泛支持和跨各种查询引擎的广泛集成意味着 Hudi 表也可以“批量”处理老式风格或从交互式查询引擎访问。

未来的机会

我们一直在 0.x 版本中添加新功能,但我们也可以将 Hudi 的核心变成更通用的湖数据库体验。 作为 lakehouse 的第一个实现(我们称之为“交易数据湖”或“流数据湖”,分别是仓库用户和数据工程师的语言),我们根据当时的生态系统做了一些保守的选择。 然而,重新审视这些选择很重要,以便看看它们是否仍然有效。

  • 深度查询引擎集成: 当时 Presto、Spark、Flink、Trino 和 Hive 等查询引擎擅长查询列式数据文件,但很难集成到其中。 随着时间的推移,我们期望清晰的 API 抽象围绕 parquet/orc 读取路径中的索引/元数据/表快照,像 Hudi 这样的项目可以利用这些路径轻松利用像 Velox/PrestoDB 这样的创新。 然而大多数引擎更喜欢单独的集成——这导致 Hudi 维护自己的 Spark 数据源,Presto 和 Trino 连接器。 然而现在这为在查询计划和执行期间充分利用 Hudi 的多模式索引功能提供了机会。
  • 广义数据模型: 虽然 Hudi 支持主键,但我们专注于更新 Hudi 表,就好像它们是键值存储一样,而 SQL 查询在上面运行,保持不变并且无感知。 当时根据生态系统的位置推广对主键的支持还为时过早,因为生态系统仍在执行大批量 MR 作业。 如今,Apache Spark 和 Apache Flink 等性能更高的高级引擎具有成熟的可扩展 SQL 支持,可以支持 Hudi 表的通用关系数据模型。
  • 有服务器和无服务器:数据湖历来都是关于定期或按需触发的作业。 尽管许多元数据扩展挑战可以通过精心设计的元服务器来解决(类似于现代云仓库所做的),社区一直对除了数据目录或 Hive 元服务器之外的长期运行服务犹豫不决。 事实上我们的时间线服务器由于社区缺乏共识工作停滞不前。 然而随着并发控制等需求的发展,出现了围绕开放格式的这些问题的专有解决方案。 现在可能是时候通过采用混合架构来为社区转向真正开放的解决方案了,在该架构中,我们为表元数据使用服务器组件,同时为数据保留无服务器。
  • 除了结构化数据:即使我们解决了有关在 parquet/avro/orc 中摄取、存储、管理和转换数据的挑战,仍然有大多数其他数据无法从这些功能中受益。 使用 Hudi 的 HFile 表进行 ML 模型服务是一个新兴的用例,用户希望以低成本、轻量级的方式直接从湖存储中提供计算数据。 通常,非结构化数据,如 JSON 和 blob类似的图像必须使用某种结构进行伪建模,从而导致性能或可管理性不佳。 随着近年来 AI/ML 的迅速崛起,像 Hudi 这样的项目缺乏对复杂、非结构化、大 blob 的支持,只会让数据碎片化在湖泊中。为此,我们需要支持所有主要的图像、视频和 ML/AI 格式,并在索引、变异或捕获变化方面具有相同深度的功能。
  • 更强大的自我管理:Hudi 在开源数据湖管理方面提供了当今最广泛的功能集,从摄取数据到优化数据以及自动化各种簿记活动以自动管理表数据和元数据。 看到社区如何使用这个管理层来提升他们的数据湖体验令人印象深刻。

但是,我们有很多功能要添加,例如,反向流数据到其他系统或快照管理](https://github.com/apache/hudi/pull/6576/files))或[诊断报告器](https://github.com/apache/hudi/pull/6600)或跨地域逻辑复制或记录级 生存时间管理](https://github.com/apache/hudi/pull/8062))

Hudi 1.X

鉴于我们更像是一个数据库问题来处理 Hudi,因此 Hudi 有许多构成数据库的构建块也就不足为奇了。 从开创性的数据库系统架构论文(参见第 4 页)中绘制基线,我们可以看到 Hudi 如何构成针对湖优化的数据库的下半部分,具有多个查询引擎层 - SQL、编程访问、专门用于 ML /AI、实时分析和其他引擎处于领先地位。 下面的主要区域直接映射了我们如何跟踪 Hudi 路线图。 我们将看到我们如何专门针对数据湖的规模和湖工作负载的特征调整这些组件。

Apache Hudi 1.x 版本重磅功能展望与讨论

突出显示现有(绿色)和新(黄色)Hudi 组件以及外部组件(蓝色)的参考图。

数据库中的日志管理器组件有助于组织日志,以便在崩溃期间恢复数据库等。 在事务层,Hudi 实现了将数据组织到文件组和文件切片中的方法,并将修改表状态的事件存储在时间轴中。 Hudi 还使用标记文件跟踪进行中的事务以实现有效回滚。 由于该湖存储的数据比典型的操作数据库或数据仓库多得多,同时需要更长的记录版本跟踪,因此 Hudi 生成了记录级元数据,可以很好地压缩以帮助更改数据捕获或增量查询等功能,有效地将数据本身视为日志 . 未来我们希望继续完善 Hudi 的数据组织,提供可扩展的、无限的时间线和数据历史、时间旅行写入、存储联邦等功能。

锁管理器组件有助于在数据库中实现并发控制机制。 Hudi 附带了几个外部锁管理器,尽管我们最终希望通过我们今天仅提供时间线元数据的元服务器来简化这一点。 这篇论文(第 81 页)描述了数据库中常见的并发控制技术之间的权衡:2Phase Locking(没有中央事务管理器很难实现)、OCC(在没有争用的情况下工作良好,在争用时效率很差)和 MVCC(收益率 高吞吐量,但在某些情况下放松了可串行化性)。 Hudi 在并发写入器之间实现了 OCC,同时为写入器和表服务提供了基于 MVCC 的并发,以避免它们之间的任何阻塞。 退一步,我们需要问问自己,如果我们正在构建一个 OLTP 关系数据库,以避免盲目地将适用于它们的相同并发控制技术应用到写入湖的高吞吐量管道/作业的陷阱。 Hudi 并不是非常倾向于 OCC ,并鼓励通过输入流序列化更新/删除/插入,以避免 OCC 对快速变化的表或流式工作负载造成性能损失。 即使我们实施了早期冲突检测等技术来改进 OCC,此 RFC 也建议 Hudi 应该追求更通用的基于非阻塞 MVCC 的并发控制,同时为简单和批量附加的用例保留 OCC。

访问方法组件包括索引、元数据和存储布局组织技术,这些技术暴露给数据库的读/写。 去年我们新增了多模态索引,支持基于MVCC的异步建索引,建索引时不阻塞写者,建完后仍与表数据保持一致。 到目前为止,我们的重点一直更狭隘地针对使用索引技术来提高写入性能,而查询则受益于文件和列统计元数据以进行规划。 未来我们希望支持在写入和查询中统一使用各种索引类型,以便可以在 Hudi 的索引之上高效地规划、优化和执行查询。 由于 Hudi 的连接器适用于 Presto、Spark 和 Trino 等流行的开源引擎,现在这成为可能。 已经添加了新的二级索引方案和内置索引函数的建议,以索引从列派生的值。

缓冲区管理器组件管理脏存储块并缓存数据以加快查询响应速度。 在 Hudi 的上下文中,我们希望让我们现在期待已久的列式缓存服务焕发生机,该服务可以透明地位于湖存储和查询引擎之间,同时了解事务边界和记录突变。 RUM 猜想详细介绍了设计平衡读取、更新和内存成本的系统的权衡。 我们这里的基本想法是优化读取(从缓存中提供更快的查询)和更新(通过不断压缩内存来分摊 MoR 合并成本)成本,同时将缓存/内存成本添加到系统中。 目前,这个想法可能有很多候选设计,我们需要一个单独的设计/RFC 来实现它们。

共享组件包括复制、加载和各种实用程序,以及目录或元数据服务器。 大多数数据库隐藏了底层格式/存储的复杂性,为用户提供了许多数据管理工具。 Hudi 也不例外,Hudi 拥有久经考验的批量和连续数据加载实用程序(deltastreamer、flinkstreamer 工具以及 Kafka Connect Sink)、一套全面的表服务(清理、归档、压缩、集群、索引……)、admin CLI 等等。 社区一直致力于开发新的服务器组件,例如元服务器,它可以扩展为使用高级数据结构(例如区域映射/间隔树)或表服务管理器来索引表元数据,以集中管理 Hudi 表。 我们很乐意朝着拥有一组水平可扩展、高度可用的元服务器的方向发展,这些元服务器可以提供这些功能以及一些锁管理功能。 另一个有趣的方向是反向加载器/流数据实用程序,它也可以将数据从 Hudi 移出到其他外部存储系统中。

总而言之我们提出 Hudi 1.x 作为 Hudi 的重新构想,作为湖的事务数据库,具有多语言持久性,将 Hudi 数据湖的抽象和平台化水平提高到更高。

Hudi 1.0 发布

本节概述了第一个 1.0 版本目标和可能必须进行的前端加载更改。 此 RFC 征求社区的更多反馈和贡献,以扩大范围或在 1.0 版本中为用户提供更多价值。

简而言之,我们提出 Hudi 1.0 尝试并实现以下目标。

  • 合并对格式的所有/任何更改 - 时间线、日志、元数据表...
  • 跨表元数据、快照、索引/元数据表、主键生成、记录合并等建立新的 API(如果有的话)
  • 将内部代码分层/抽象到位 - 例如 HoodieData、文件组读取器/写入器、存储...
  • 以配置保护的安全方式登陆所有主要的、杰出的 "needle mover" PR
  • 集成 Spark/Flink/Presto 的部分/全部现有索引,并验证预期的功能和性能提升。

所有更改都应向后兼容,并且不需要重写现有表中的基本/镶木地板文件。 但是,从 0.x 版本迁移到 1.0 版本时,可能需要完全压缩日志或计划停机时间以重写时间线或重建元数据表。

该 RFC 将通过对 Hudi 不同部分的具体更改进行扩展。 请注意此 RFC 仅用于识别这些领域,对于影响存储格式、向后兼容性或新公共 API 的任何更改,应给出单独的 RFC。

推出/采用计划

我们建议 1.0 的执行在下面的三个版本系列中完成。文章来源地址https://www.toymoban.com/news/detail-470529.html

  • alpha(2023 年 7 月):所有格式更改均已落地,内部代码分层/抽象工作,主要未完成的 PR 已安全落地。 0.X 表可以无缝升级,核心 Hudi 写入/查询流程经过认证。
  • beta(2023 年 8 月):添加了新的 API,更改了代码路径以使用新的 API,索引集成了性能/功能资格。
  • Generally available(2023 年 9 月):在一般发布之前由社区进行规模测试、压力测试和生产强化。

到了这里,关于Apache Hudi 1.x 版本重磅功能展望与讨论的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【奇想星球】重磅!我们的AIGC共创社区平台上线了!

    公众号原文链接 2023年9月10日,我们的平台网站上线了! 奇想星球 | AIGC共创社区平台。网站地址:https://1aigc.cn 兴趣相同,技能互补。 链接共创,让每个价值放大! 功能模块 产品展示、组队招募、开发者圈子、知识广场、关于我们、个人中心 接下来,简单介绍一下我们的故

    2024年02月07日
    浏览(37)
  • Apache Hudi初探(十)(与spark的结合)--hudi的Compaction操作

    在之前的文章Apache Hudi初探(六)(与spark的结合) 中,我们没有过多的解释Spark中 hudi Compaction 的实现,在这里详细说一下 注意:在hudi中有同步,异步Compaction的概念,为了保证写入的及时性和数据读取的时效性,hudi在一步compaction的过程中会引入一个后台线程进行compaction,所以异

    2024年02月15日
    浏览(22)
  • 重磅!Seata 加入 Apache!!

    大家好,我是栈长。 今天给大家宣布一个重大消息,又一国产项目宣布加入 Apache,那就是 Alibaba 开源的分布式事务开源项目: Seata , Apache Seata 来了! 恭喜 Seata 成功加入 Apache 孵化器,走向全球。 说到 Seata,相信使用 Spring Cloud Alibaba 的小伙伴并不陌生,它是 Spring Cloud Al

    2024年02月05日
    浏览(26)
  • 渗透测试及一些网络安全类的讨论社区类的整理

    渗透测试) FreeBuf(https://www.freebuf.com/):FreeBuf是一个国内知名的网络安全门户网站,也是一个非常活跃的渗透测试社区。在这个社区中,您可以了解最新的网络安全资讯、渗透测试技术和工具,还可以与其他网络安全爱好者和专业人士交流经验和技术。 零组安全论坛(http

    2024年02月14日
    浏览(27)
  • 3.2.0 版本预告!Apache DolphinScheduler API 增强相关功能

    Apache DolphinScheduler 3.2.0 版本即将发布,在此之前,为了让用户提前了解到大家所期待的新功能,我们制作了视频来”剧透“一些核心新发布。此前,我们比较全面地”剧透“的 3.2.0 版本的新功能,这次,我们来聚焦 API 增强,看看是不是能满足你的需求! 点击视频看详情:

    2024年02月13日
    浏览(23)
  • Apache Hudi Timeline Server介绍

    Hudi 有一个中央时间线服务器,在驱动程序节点中运行并作为 Rest 服务。它有多种好处,第一个用例是提供 FileSystemView api。 Hudi 的核心是维护一个 TableFileSystemView,它暴露 API 来获取给定数据集的文件状态,驱动程序和执行程序将在写入和表服务生命周期的不同时间点查询该状

    2024年02月12日
    浏览(23)
  • Apache Hudi初探(五)(与flink的结合)--Flink 中hudi clean操作

    本文主要是具体说说Flink中的clean操作的实现 在flink中主要是 CleanFunction 函数: open函数 writeClient =FlinkWriteClients.createWriteClient(conf, getRuntimeContext()) 创建FlinkWriteClient,用于写hudi数据 this.executor = NonThrownExecutor.builder(LOG).waitForTasksFinish(true).build(); 创建一个只有一个线程的线程池,改

    2024年02月06日
    浏览(26)
  • 提升 Apache Hudi Upsert 性能的三个建议

    Apache Hudi 社区一直在快速发展,各公司正在寻找方法来利用其强大的功能来有效地摄取和管理大规模数据集。 每周社区都会收到一些常见问题,最常见的问题与 Hudi 如何执行更新插入有关,以确保以低延迟访问最新数据。 快速更新插入的主要考虑因素之一是选择正确的存储

    2024年02月05日
    浏览(33)
  • Apache Hudi初探(一)(与flink的结合)

    和 Spark 的使用方式不同, flink 结合 hudi 的方式,是以 SPI 的方式,所以不需要像使用 Spark 的方式一样, Spark 的方式如下: (这里不包括 org.apache.spark.sql.sources.DataSourceRegister ) Flink 结合 Hudi 的方式,只需要引入了对应的jar包即可,以 SPI 的方式: 其中 HoodieTableFactory 是读写 H

    2024年02月16日
    浏览(27)
  • Apache Hudi初探(二)(与flink的结合)--flink写hudi的操作(JobManager端的提交操作)

    在Apache Hudi初探(一)(与flink的结合)中,我们提到了 Pipelines.hoodieStreamWrite 写hudi文件 ,这个操作真正写hudi是在 Pipelines.hoodieStreamWrite 方法下的 transform(opName(\\\"stream_write\\\", conf), TypeInformation.of(Object.class), operatorFactory) ,具体分析一下写入的过程。 对于 transform(opName(\\\"stream_write\\\", conf), Ty

    2024年02月12日
    浏览(28)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包