流式系统:第九章到第十章

这篇具有很好参考价值的文章主要介绍了流式系统:第九章到第十章。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

原文:Streaming Systems

译者:飞龙

协议:CC BY-NC-SA 4.0

第九章:流连接

当我开始学习连接时,这是一个令人生畏的话题;LEFTOUTERSEMIINNERCROSS:连接的语言是富有表现力和广泛的。再加上流带来的时间维度,你会发现这似乎是一个具有挑战性的复杂话题。好消息是,连接实际上并不是一开始看起来那么可怕的野兽,它没有令人畏惧的尖牙。与许多其他复杂话题一样,一旦你理解了连接的核心思想和主题,建立在这些基础之上的更广泛的景观突然变得更加易于访问。所以请加入我,我们一起探索这个迷人的话题…连接。

你所有的连接都属于流连接

加入两个数据集是什么意思?我们直观地理解,连接只是一种特定类型的分组操作:通过将共享某些属性(即键)的数据连接在一起,我们将一些先前不相关的个体数据元素收集到一组相关元素中。正如我们在第六章中学到的,分组操作总是消耗流并产生表格。知道这两件事,然后得出这整个章节基础的结论只是一个小小的飞跃:在它们的核心,所有连接都是流连接

这个事实的伟大之处在于,它实际上使得流连接的主题更加易于处理。我们在流分组操作的时间推理方面学到的所有工具(窗口化、水印、触发器等)在流连接的情况下仍然适用。也许令人生畏的是,将流连接添加到混合中似乎只会使事情变得更加复杂。但正如您将在接下来的示例中看到的那样,对于将所有连接建模为流连接,存在一种优雅的简单和一致性。与其感觉存在令人困惑的多种不同连接方法,不如清楚地认识到几乎所有类型的连接实际上都归结为同一模式的轻微变化。最终,这种洞察力的清晰有助于使连接(流连接或其他)变得不那么令人生畏。

为了给我们一些具体的推理对象,让我们考虑一些不同类型的连接,它们被应用于以下数据集,方便地命名为LeftRight以匹配常见的命名约定:


*12:10> SELECT TABLE * FROM Left;        12:10> SELECT TABLE * FROM Right;*
--------------------                    --------------------
| Num | Id | Time  |                    | Num | Id | Time  |
--------------------                    --------------------
| 1   | L1 | 12:02 |                    | 2   | R2 | 12:01 |
| 2   | L2 | 12:06 |                    | 3   | R3 | 12:04 |
| 3   | L3 | 12:03 |                    | 4   | R4 | 12:05 |
--------------------                    --------------------

每个包含三列:

Num

一个数字。

Id

对应表格的第一个字母(“L”或“R”)和Num的混合词,从而提供了一种唯一标识连接结果中给定单元格来源的方式。

时间

给定记录在系统中的到达时间,在考虑流连接时变得重要。

为了保持简单,注意我们的初始数据集将严格具有唯一的连接键。当我们到达SEMI连接时,我们将引入一些更复杂的数据集,以突出重复键存在时的连接行为。

我们首先深入研究未窗口连接,因为窗口化通常只在微小程度上影响连接语义。在我们满足未窗口连接的胃口之后,我们将触及一些窗口化上连接的更有趣的点。

未窗口连接

流连接无限数据并不总是需要窗口。但是通过应用我们在第六章学到的概念,我们可以看到这并不是真的。连接(包括窗口化和非窗口化)只是另一种分组操作,而分组操作产生表。因此,如果我们想要将非窗口连接创建的表作为流来消费,我们只需要应用一个非“等待直到我们看到所有输入”的非分组(或触发)操作。将连接窗口化为非全局窗口并使用水印触发器(即“等待直到我们看到流的有限时间段内的所有输入”触发器)确实是一种选择,但无论连接是否窗口化,都可以在每条记录上触发(即物化视图语义)或定期触发,而不考虑处理时间的推移。因为这样做可以使示例更容易理解,我们假设在以下所有非窗口连接示例中使用隐式默认的每条记录触发器来观察连接结果作为流。

现在,让我们来看看连接本身。ANSI SQL 定义了五种连接类型:FULL OUTERLEFT OUTERRIGHT OUTERINNERCROSS。我们深入研究前四种,并在下一段简要讨论最后一种。我们还涉及另外两种有趣但不太常见(至少使用标准语法支持较差)的变体:ANTISEMI连接。

表面上,听起来有很多变体。但是你会看到,实际上核心只有一种连接类型:FULL OUTER连接。CROSS连接只是具有虚假真连接谓词的FULL OUTER连接;也就是说,它返回左表中的每一行与右表中的每一行的所有可能配对。所有其他连接变体都简化为FULL OUTER连接的某个逻辑子集。¹因此,一旦你理解了所有不同连接类型之间的共同点,就会更容易记住它们。这也使得在流的上下文中推理它们变得更加简单。

在我们开始之前,这里还有一点需要注意:我们将主要考虑最多具有 1:1 基数的等值连接,也就是说,连接谓词是一个相等语句,并且每一侧最多只有一行匹配。这样可以使示例简单而简洁。当我们涉及SEMI连接时,我们将扩展我们的示例以考虑具有任意 N:M 基数的连接,这将让我们观察更多任意谓词连接的行为。

FULL OUTER

因为它们构成了其他每种变体的概念基础,我们首先看FULL OUTER连接。外连接体现了对“连接”一词的相当自由和乐观的解释:FULL OUTER连接两个数据集的结果基本上是两个数据集中所有行的完整列表,²两个数据集中具有相同连接键的行被合并在一起,但未匹配的行都包括在未连接中。

例如,如果我们将两个示例数据集进行FULL OUTER连接,生成一个只包含连接 ID 的新关系,结果可能如下所示:


*12:10> SELECT TABLE* 
 *Left.Id as L,* 
 *Right.Id as R,*
 *FROM Left FULL OUTER JOIN Right*
 *ON L.Num = R.Num;*
---------------
| L    | R    |
---------------
| L1   | null | 
| L2   | R2   |
| L3   | R3   |
| null | R4   |
---------------

我们可以看到FULL OUTER连接包括满足连接谓词的行(例如,“L2, R2”和“L3, R3”),但它还包括未满足谓词的部分行(例如,“L1, null”和“null, R4”,其中 null 表示数据的未连接部分)。

当然,这只是这种FULL OUTER连接关系的一个时间点快照,在所有数据到达系统之后进行。我们在这里学习流连接,流连接的定义涉及时间的增加维度。正如我们从第八章所知,如果我们想要了解给定数据集/关系随时间如何变化,我们希望用时间变化关系(TVR)来表达。因此,为了最好地了解连接随时间的演变,让我们现在看看这个连接的完整 TVR(每个快照关系之间的变化都用黄色突出显示):


*12:10> SELECT TVR*
 *Left.Id as L,*
 *Right.Id as R,*
 *FROM Left FULL OUTER JOIN Right*
 *ON L.Num = R.Num;*
-------------------------------------------------------------------------
|  [-inf, 12:01)  |  [12:01, 12:02) |  [12:02, 12:03) |  [12:03, 12:04) |
| --------------- | --------------- | --------------- | --------------- |
| | L    | R    | | | L    | R    | | | L    | R    | | | L    | R    | |
| --------------- | --------------- | --------------- | --------------- |
| --------------- | | null | R2   | | | L1   | null | | | L1   | null | | 
|                 | --------------- | | null | R2   | | | null | R2   | |
|                 |                 | --------------- | | L3   | null | |
|                 |                 |                 | --------------- |
-------------------------------------------------------------------------
|  [12:04, 12:05) |  [12:05, 12:06) |  [12:06, 12:07) |
| --------------- | --------------- | --------------- |
| | L    | R    | | | L    | R    | | | L    | R    | |
| --------------- | --------------- | --------------- |
| | L1   | null | | | L1   | null | | | L1   | null | |
| | null | L2   | | | null | L2   | | | L2 | L2   | |
| | L3   | L3 | | | L3   | L3   | | | L3   | L3   | |
| --------------- | | null | L4   | | | null | L4   | |
|                 | --------------- | --------------- |
-------------------------------------------------------

然后,正如你可能期望的那样,这个 TVR 的流呈现将捕捉到每个快照之间的具体增量:


*12:00> SELECT STREAM* 
 *Left.Id as L,*
 *Right.Id as R,* 
 *CURRENT_TIMESTAMP as Time,*
 *Sys.Undo as Undo*
 *FROM Left FULL OUTER JOIN Right*
 *ON L.Num = R.Num;*
------------------------------
| L    | R    | Time  | Undo |
------------------------------
| null | R2   | 12:01 |      |
| L1   | null | 12:02 |      |
| L3   | null | 12:03 |      |
| L3   | null | 12:04 | undo |
| L3   | R3   | 12:04 |      |
| null | R4   | 12:05 |      |
| null | R2   | 12:06 | undo |
| L2   | R2   | 12:06 |      |
....... [12:00, 12:10] .......

注意包括“时间”和“撤销”列,以突出给定行在流中出现的时间,并且还指出给定行的更新首次导致撤销该行的先前版本的情况。如果这个流要捕捉随时间变化的完整视图,那么撤销/撤回行就至关重要。

因此,尽管这三种连接(表、TVR、流)各自是不同的,但很明显它们都只是相同数据的不同视图:表快照向我们展示了所有数据到达后数据集的整体情况,而 TVR 和流版本以各自的方式捕捉了整个关系在其存在过程中的演变。

有了对FULL OUTER连接的基本了解,我们现在理解了流上下文中连接的所有核心概念。不需要窗口,也不需要自定义触发器,没有特别痛苦或不直观的东西。只是连接随时间的每条记录的演变,正如你所期望的那样。更好的是,所有其他类型的连接只是这个主题的变体(至少在概念上),本质上只是在FULL OUTER连接的每条记录流上执行的额外过滤操作。现在让我们更详细地看看它们中的每一个。

LEFT OUTER

LEFT OUTER连接只是FULL OUTER连接,其中右数据集中的任何未连接行都被移除。通过对原始的FULL OUTER连接进行灰掉将被过滤的行,可以最清楚地看到这一点。对于LEFT OUTER连接,看起来会像下面这样,原始的FULL OUTER连接中的每一行未连接的左侧都被过滤掉:


 *12:00> SELECT STREAM Left.Id as L,* 
*12:10> SELECT TABLE                               Right.Id as R,*
 *Left.Id as L,                            Sys.EmitTime as Time,* 
 *Right.Id as R                            Sys.Undo as Undo* 
 *FROM Left LEFT OUTER JOIN Right          FROM Left LEFT OUTER JOIN Right*
 *ON L.Num = R.Num;                        ON L.Num = R.Num;*
---------------                          ------------------------------
| L    | R    |                          | L    | R    | Time  | Undo |
---------------                          ------------------------------
| L1   | null |                          | null | R2   | 12:01 |      |
| L2   | R2   |                          | L1   | null | 12:02 |      |
| L3   | R3   |                          | L3   | null | 12:03 |      |
| null | R4   |                          | L3   | null | 12:04 | undo |
---------------                          | L3   | R3   | 12:04 |      |
                                         | null | R4   | 12:05 |      |
                                         | null | R2   | 12:06 | undo |
                                         | L2   | R2   | 12:06 |      |
                                         ....... [12:00, 12:10] .......

为了看到表和流在实践中实际上会是什么样子,让我们再次看一下相同的查询,但这次完全省略了灰色行:


 *12:00> SELECT STREAM Left.Id as L,* 
*12:10> SELECT TABLE                               Right.Id as R,*
 *Left.Id as L,                            Sys.EmitTime as Time,* 
 *Right.Id as R                            Sys.Undo as Undo* 
 *FROM Left LEFT OUTER JOIN Right          FROM Left LEFT OUTER JOIN Right*
 *ON L.Num = R.Num;                        ON L.Num = R.Num;*
---------------                          ------------------------------
| L    | R    |                          | L    | R    | Time  | Undo |
---------------                          ------------------------------
| L1   | null |                          | L1   | null | 12:02 |      |
| L2   | R2   |                          | L3   | null | 12:03 |      |
| L3   | R3   |                          | L3   | null | 12:04 | undo |
---------------                          | L3   | R3   | 12:04 |      |
                                         | L2   | R2   | 12:06 |      |
                                         ....... [12:00, 12:10] .......

RIGHT OUTER

RIGHT OUTER连接是左连接的相反:在完全外连接中,来自左数据集的所有未连接行都被右侧移除。


 *12:00> SELECT STREAM Left.Id as L,* 
*12:10> SELECT TABLE                               Right.Id as R,*
 *Left.Id as L,                            Sys.EmitTime as Time,* 
 *Right.Id as R                            Sys.Undo as Undo* 
 *FROM Left RIGHT OUTER JOIN Right         FROM Left RIGHT OUTER JOIN Right*
 *ON L.Num = R.Num;                        ON L.Num = R.Num;*
---------------                          ------------------------------
| L    | R    |                          | L    | R    | Time  | Undo |
---------------                          ------------------------------
| L1   | null |                          | null | R2   | 12:01 |      |
| L2   | R2   |                          | L1   | null | 12:02 |      |
| L3   | R3   |                          | L3   | null | 12:03 |      |
| null | R4   |                          | L3   | null | 12:04 | undo |
---------------                          | L3   | R3   | 12:04 |      |
                                         | null | R4   | 12:05 |      |
                                         | null | R2   | 12:06 | undo |
                                         | L2   | R2   | 12:06 |      |
                                         ....... [12:00, 12:10] .......

在这里我们看到查询实际上呈现为实际的RIGHT OUTER连接会是什么样子:


 *12:00> SELECT STREAM Left.Id as L,* 
*12:10> SELECT TABLE                               Right.Id as R,*
 *Left.Id as L,                            Sys.EmitTime as Time,* 
 *Right.Id as R                            Sys.Undo as Undo* 
 *FROM Left RIGHT OUTER JOIN Right         FROM Left RIGHT OUTER JOIN Right*
 *ON L.Num = R.Num;                        ON L.Num = R.Num;*
---------------                          ------------------------------
| L    | R    |                          | L    | R    | Time  | Undo |
---------------                          ------------------------------
| L2   | R2   |                          | null | R2   | 12:01 |      |
| L3   | R3   |                          | L3   | R3   | 12:04 |      |
| null | R4   |                          | null | R4   | 12:05 |      |
---------------                          | null | R2   | 12:06 | undo |
                                         | L2   | R2   | 12:06 |      |
                                         ....... [12:00, 12:10] .......

INNER

INNER连接实质上是LEFT OUTERRIGHT OUTER连接的交集。或者,从减法的角度来看,从原始的FULL OUTER连接中移除以创建INNER连接的行是从LEFT OUTERRIGHT OUTER连接中移除的行的并集。因此,任一侧保留未连接的所有行都不会出现在INNER连接中:


 *12:00> SELECT STREAM Left.Id as L,* 
*12:10> SELECT TABLE                               Right.Id as R,*
 *Left.Id as L,                            Sys.EmitTime as Time,* 
 *Right.Id as R                            Sys.Undo as Undo* 
 *FROM Left INNER JOIN Right               FROM Left INNER JOIN Right*
 *ON L.Num = R.Num;                        ON L.Num = R.Num;*
---------------                          ------------------------------
| L    | R    |                          | L    | R    | Time  | Undo |
---------------                          ------------------------------
| L1   | null |                          | null | R2   | 12:01 |      |
| L2   | R2   |                          | L1   | null | 12:02 |      |
| L3   | R3   |                          | L3   | null | 12:03 |      |
| null | R4   |                          | L3   | null | 12:04 | undo |
---------------                          | L3   | R3   | 12:04 |      |
                                         | null | R4   | 12:05 |      |
                                         | null | R2   | 12:06 | undo |
                                         | L2   | R2   | 12:06 |      |
                                         ....... [12:00, 12:10] .......

再次,更简洁地呈现为实际的INNER连接会是什么样子:


 *12:00> SELECT STREAM Left.Id as L,* 
*12:10> SELECT TABLE                               Right.Id as R,*
 *Left.Id as L,                            Sys.EmitTime as Time,* 
 *Right.Id as R                            Sys.Undo as Undo* 
 *FROM Left INNER JOIN Right               FROM Left INNER JOIN Right*
 *ON L.Num = R.Num;                        ON L.Num = R.Num;*
---------------                          ------------------------------
| L    | R    |                          | L    | R    | Time  | Undo |
---------------                          ------------------------------
| L2   | R2   |                          | L3   | R3   | 12:04 |      |
| L3   | R3   |                          | L2   | R2   | 12:06 |      |
---------------                          ....... [12:00, 12:10] .......

根据这个例子,你可能会倾向于认为在INNER连接流中撤回从未发挥作用,因为在这个例子中它们都被过滤掉了。但是想象一下,如果“左”表中具有Num3的行的值在 12:07 从L3更新为L3v2。除了在最终的TABLE查询中(再次在 12:10 执行,这是在“左”边的行3的更新到达之后)导致左侧的不同值之外,它还将导致一个STREAM,捕捉到旧值的撤回和新值的添加:


 *12:00> SELECT STREAM Left.Id as L,* 
*12:10> SELECT TABLE                               Right.Id as R,*
 *Left.Id as L,                            Sys.EmitTime as Time,* 
 *Right.Id as R                            Sys.Undo as Undo* 
 *FROM LeftV2 INNER JOIN Right             FROM LeftV2 INNER JOIN Right*
 *ON L.Num = R.Num;                        ON L.Num = R.Num;*
---------------                           ------------------------------
| L    | R    |                           | L    | R    | Time  | Undo |
---------------                           ------------------------------
| L2   | R2   |                           | L3   | R3   | 12:04 |      |
| L3v2 | R3   |                           | L2   | R2   | 12:06 |      |
---------------                           | L3   | R3   | 12:07 | undo | 
                                          | L3v2 | R3   | 12:07 |      |
                                          ....... [12:00, 12:10] .......

反对

ANTI连接是INNER连接的反面:它们包含所有未连接的行。并非所有的 SQL 系统都支持清晰的ANTI连接语法,但为了清晰起见,我将在这里使用最直接的语法:


 *12:00> SELECT STREAM Left.Id as L,* 
*12:10> SELECT TABLE                               Right.Id as R,*
 *Left.Id as L,                            Sys.EmitTime as Time,* 
 *Right.Id as R                            Sys.Undo as Undo* 
 *FROM Left ANTI JOIN Right                FROM Left ANTI JOIN Right*
 *ON L.Num = R.Num;                        ON L.Num = R.Num;*
---------------                          -------------------------------
| L    | R    |                          | L    |    R | Time  | Undo |
---------------                          ------------------------------
| L1   | null |                          | null | R2   | 12:01 |      |
| L2   | R2   |                          | L1   | null | 12:02 |      |
| L3   | R3   |                          | L3   | null | 12:03 |      |
| null | R4   |                          | L3   | null | 12:04 | undo |
---------------                          | L3   | R3   | 12:04 |      |
                                         | null | R4   | 12:05 |      |
                                         | null | R2   | 12:06 | undo |
                                         | L2   | R2   | 12:06 |      |
                                         ....... [12:00, 12:10] .......

关于ANTI连接的流呈现略有趣的地方在于,它最终包含了一堆最终加入的行的错误开始和撤回;事实上,ANTI连接的撤回与INNER连接的轻松相比是相当重的。更简洁的版本将如下所示:


 *12:00> SELECT STREAM Left.Id as L,* 
*12:10> SELECT TABLE                               Right.Id as R,*
 *Left.Id as L,                            Sys.EmitTime as Time,* 
 *Right.Id as R                            Sys.Undo as Undo* 
 *FROM Left ANTI JOIN Right               FROM Left ANTI JOIN Right*
 *ON L.Num = R.Num;                        ON L.Num = R.Num;*
---------------                          ------------------------------
| L    | R    |                          | L    | R    | Time  | Undo |
---------------                          ------------------------------
| L1   | null |                          | null | R2   | 12:01 |      |
| null | R4   |                          | L1   | null | 12:02 |      |
---------------                          | L3   | null | 12:03 |      | 
                                         | L3   | null | 12:04 | undo |
                                         | null | R4   | 12:05 |      |
                                         | null | R2   | 12:06 | undo |
                                         ....... [12:00, 12:10] .......

“SEMI”

现在我们来谈谈SEMI连接,而SEMI连接有点奇怪。乍一看,它们基本上看起来像是内连接,其中一个连接值被丢弃。确实,在 N:M 基数关系为:是 N:M 且 M≤1 的情况下,这是有效的(请注意,我们将在接下来的所有示例中使用 kept=Left,dropped=Right)。例如,在我们迄今使用的LeftRight数据集上(连接数据的基数分别为 0:1、1:0 和 1:1),INNERSEMI连接变体看起来是相同的。


*12:10> SELECT TABLE            12:10> SELECT TABLE*
 *Left.Id as L                   Left.Id as L*
*FROM Left INNER JOIN           FROM Left SEMI JOIN*
*Right ON L.Num = R.Num;        Right ON L.Num = R.Num;*
---------------                ---------------
| L    | R    |                | L    | R    |
---------------                ---------------
| L1   | null |                | L1   | null |
| L2   | R2   |                | L2   | R2   |
| L3   | R3   |                | L3   | R3   |
| null | R4   |                | null | R4   |
---------------                ---------------

然而,在 N:M 基数为 M>1 的情况下,SEMI连接还有一个微妙之处:因为 M 端的没有被返回,SEMI连接只是基于右侧存在任何匹配行来断定连接条件,而不是重复产生每个匹配行的新结果。

为了清楚地看到这一点,让我们切换到一对稍微复杂的输入关系,突出显示其中包含的行的 N:M 连接基数。在这些关系中,N_M列说明了左侧和右侧行之间的基数关系,而Id列(与之前一样)为每个输入关系中的每一行提供了一个唯一的标识符:


*12:15> SELECT TABLE * FROM LeftNM;    12:15> SELECT TABLE * FROM RightNM;*
---------------------                 ---------------------
| N_M | Id  |  Time |                 | N_M | Id  |  Time |
---------------------                 ---------------------
| 1:0 | L2  | 12:07 |                 | 0:1 | R1  | 12:02 |
| 1:1 | L3  | 12:01 |                 | 1:1 | R3  | 12:14 |
| 1:2 | L4  | 12:05 |                 | 1:2 | R4A | 12:03 |
| 2:1 | L5A | 12:09 |                 | 1:2 | R4B | 12:04 |
| 2:1 | L5B | 12:08 |                 | 2:1 | R5  | 12:06 |
| 2:2 | L6A | 12:12 |                 | 2:2 | R6A | 12:11 |
| 2:2 | L6B | 12:10 |                 | 2:2 | R6B | 12:13 |
---------------------                 ---------------------

有了这些输入,FULL OUTER连接扩展如下:


 *12:00> SELECT STREAM*
 *COALESCE(LeftNM.N_M,* 
*12:15> SELECT TABLE                                      RightNM.N_M) as N_M,* 
 *COALESCE(LeftNM.N_M,                     LeftNM.Id as L,*
 *RightNM.N_M) as N_M,            RightNM.Id as R,* 
 *LeftNM.Id as L,                        Sys.EmitTime as Time,* 
 *RightNM.Id as R,                         Sys.Undo as Undo*
 *FROM LeftNM                            FROM LeftNM* 
 *FULL OUTER JOIN RightNM                FULL OUTER JOIN RightNM*
 *ON LeftNM.N_M = RightNM.N_M;           ON LeftNM.N_M = RightNM.N_M;*
---------------------                  ------------------------------------
| N_M | L    | R    |                  | N_M | L    | R    | Time  | Undo |
---------------------                  ------------------------------------
| 0:1 | null | R1   |                  | 1:1 | L3   | null | 12:01 |      |
| 1:0 | L2   | null |                  | 0:1 | null | R1   | 12:02 |      |
| 1:1 | L3   | R3   |                  | 1:2 | null | R4A  | 12:03 |      |
| 1:2 | L4   | R4A  |                  | 1:2 | null | R4B  | 12:04 |      |
| 1:2 | L4   | R4B  |                  | 1:2 | null | R4A  | 12:05 | undo |
| 2:1 | L5A  | R5   |                  | 1:2 | null | R4B  | 12:05 | undo |
| 2:1 | L5B  | R5   |                  | 1:2 | L4   | R4A  | 12:05 |      |
| 2:2 | L6A  | R6A  |                  | 1:2 | L4   | R4B  | 12:05 |      |
| 2:2 | L6A  | R6B  |                  | 2:1 | null | R5   | 12:06 |      |
| 2:2 | L6B  | R6A  |                  | 1:0 | L2   | null | 12:07 |      |
| 2:2 | L6B  | R6B  |                  | 2:1 | null | R5   | 12:08 | undo |
---------------------                  | 2:1 | L5B  | R5   | 12:08 |      |
                                       | 2:1 | L5A  | R5   | 12:09 |      |
                                       | 2:2 | L6B  | null | 12:10 |      |
                                       | 2:2 | L6B  | null | 12:11 | undo |
                                       | 2:2 | L6B  | R6A  | 12:11 |      |
                                       | 2:2 | L6A  | R6A  | 12:12 |      |
                                       | 2:2 | L6A  | R6B  | 12:13 |      |
                                       | 2:2 | L6B  | R6B  | 12:13 |      |
                                       | 1:1 | L3   | null | 12:14 | undo |
                                       | 1:1 | L3   | R3   | 12:14 |      |
                                       .......... [12:00, 12:15] ..........

作为一个附注,当每一侧有多行匹配相同谓词时,这些更复杂的数据集的一个额外好处是连接的乘法性质开始变得更加清晰(例如,“2:2”行,从输入的每一侧的两行扩展到输出的四行;如果数据集有一组“3:3”行,它们将从每个输入的三行扩展到输出的九行,依此类推)。

但回到SEMI连接的微妙之处。通过这些数据集,很清楚地看到过滤的INNER连接和SEMI连接之间的区别:对于任何 N:M 基数为 M>1 的行,INNER连接会产生重复值,而SEMI连接不会(请注意,我已经用红色突出显示了INNER连接版本中的重复行,并在相应的INNERSEMI版本中省略了完全外连接的部分)。


*12:15> SELECT TABLE                       12:15> SELECT TABLE*
 *COALESCE(LeftNM.N_M,                      COALESCE(LeftNM.N_M,*
 *RightNM.N_M) as N_M,                      RightNM.N_M) as N_M,*
 *LeftNM.Id as L                            LeftNM.Id as L*
 *FROM LeftNM INNER JOIN RightNM            FROM LeftNM SEMI JOIN RightNM*
 *ON LeftNM.N_M = RightNM.N_M;              ON LeftNM.N_M = RightNM.N_M;*
---------------------                     ---------------------
| N_M | L    | R    |                     | N_M | L    | R    |
---------------------                     ---------------------
| 0:1 | null | R1   |                     | 0:1 | null | R1   |
| 1:0 | L2   | null |                     | 1:0 | L2   | null |
| 1:1 | L3   | R3   |                     | 1:1 | L3   | R3   |
| 1:2 | L4   | R5A  |                     | 1:2 | L4   | R5A  |
| 1:2 | L4 | R5B  |                     | 1:2 | L4   | R5B  |
| 2:1 | L5A  | R5   |                     | 2:1 | L5A  | R5   |
| 2:1 | L5B  | R5   |                     | 2:1 | L5B  | R5   |
| 2:2 | L6A  | R6A  |                     | 2:2 | L6A  | R6A  |
| 2:2 | L6A | R6B  |                     | 2:2 | L6A  | R6B  |
| 2:2 | L6B  | R6A  |                     | 2:2 | L6B  | R6A  |
| 2:2 | L6B | R6B  |                     | 2:2 | L6B  | R6B  |
---------------------                     ---------------------

或者,更简洁地表达:


*12:15> SELECT TABLE                       12:15> SELECT TABLE*
 *COALESCE(LeftNM.N_M,                      COALESCE(LeftNM.N_M,*
 *RightNM.N_M) as N_M,                      RightNM.N_M) as N_M,*
 *LeftNM.Id as L                            LeftNM.Id as L*
 *FROM LeftNM INNER JOIN RightNM            FROM LeftNM SEMI JOIN RightNM*
 *ON LeftNM.N_M = RightNM.N_M;              ON LeftNM.N_M = RightNM.N_M;*
-------------                             -------------
| N_M | L   |                             | N_M | L   |
-------------                             -------------
| 1:1 | L3  |                             | 1:1 | L3  |
| 1:2 | L4  |                             | 1:2 | L4  |
| 1:2 | L4 |                             | 2:1 | L5A |
| 2:1 | L5A |                             | 2:1 | L5B |
| 2:1 | L5B |                             | 2:2 | L6A |
| 2:2 | L6A |                             | 2:2 | L6B |
| 2:2 | L6A |                             -------------
| 2:2 | L6B |
| 2:2 | L6B |
-------------

然后,STREAM呈现提供了一些上下文,说明了被过滤掉的行——它们只是后到达的重复行(从被投影的列的角度来看)。


*12:00> SELECT STREAM                        12:00> SELECT STREAM*
 *COALESCE(LeftNM.N_M,                        COALESCE(LeftNM.N_M,*
 *RightNM.N_M) as N_M,                        RightNM.N_M) as N_M,*
 *LeftNM.Id as L                              LeftNM.Id as L*
 *Sys.EmitTime as Time,                       Sys.EmitTime as Time,*
 *Sys.Undo as Undo,                           Sys.Undo as Undo,*
 *FROM LeftNM INNER JOIN RightNM              FROM LeftNM SEMI JOIN RightNM*
 *ON LeftNM.N_M = RightNM.N_M;                ON LeftNM.N_M = RightNM.N_M;*
------------------------------------        ------------------------------------
| N_M | L    | R    | Time  | Undo |        | N_M | L    | R    | Time  | Undo |
------------------------------------        ------------------------------------
| 1:1 | L3   | null | 12:01 |      |        | 1:1 | L3   | null | 12:01 |      |
| 0:1 | null | R1   | 12:02 |      |        | 0:1 | null | R1   | 12:02 |      |
| 1:2 | null | R4A  | 12:03 |      |        | 1:2 | null | R4A  | 12:03 |      |
| 1:2 | null | R4B  | 12:04 |      |        | 1:2 | null | R4B  | 12:04 |      |
| 1:2 | null | R4A  | 12:05 | undo |        | 1:2 | null | R4A  | 12:05 | undo |
| 1:2 | null | R4B  | 12:05 | undo |        | 1:2 | null | R4B  | 12:05 | undo |
| 1:2 | L4   | R4A  | 12:05 |      |        | 1:2 | L4   | R4A  | 12:05 |      |
| 1:2 | L4 | R4B  | 12:05 |  |        | 1:2 | L4   | R4B  | 12:05 |      |
| 2:1 | null | R5   | 12:06 |      |        | 2:1 | null | R5   | 12:06 |      |
| 1:0 | L2   | null | 12:07 |      |        | 1:0 | L2   | null | 12:07 |      |
| 2:1 | null | R5   | 12:08 | undo |        | 2:1 | null | R5   | 12:08 | undo |
| 2:1 | L5B  | R5   | 12:08 |      |        | 2:1 | L5B  | R5   | 12:08 |      |
| 2:1 | L5A  | R5   | 12:09 |      |        | 2:1 | L5A  | R5   | 12:09 |      |
| 2:2 | L6B  | null | 12:10 |      |        | 2:2 | L6B  | null | 12:10 |      |
| 2:2 | L6B  | null | 12:10 | undo |        | 2:2 | L6B  | null | 12:10 | undo |
| 2:2 | L6B  | R6A  | 12:11 |      |        | 2:2 | L6B  | R6A  | 12:11 |      |
| 2:2 | L6A  | R6A  | 12:12 |      |        | 2:2 | L6A  | R6A  | 12:12 |      |
| 2:2 | L6A | R6B  | 12:13 |  |        | 2:2 | L6A  | R6B  | 12:13 |      |
| 2:2 | L6B | R6B  | 12:13 |  |        | 2:2 | L6B  | R6B  | 12:13 |      |
| 1:1 | L3   | null | 12:14 | undo |        | 1:1 | L3   | null | 12:14 | undo |
| 1:1 | L3   | R3   | 12:14 |      |        | 1:1 | L3   | R3   | 12:14 |      |
.......... [12:00, 12:15] ..........        .......... [12:00, 12:15] ..........

再次简洁地表达:


*12:00> SELECT STREAM                        12:00> SELECT STREAM*
 *COALESCE(LeftNM.N_M,                        COALESCE(LeftNM.N_M,*
 *RightNM.N_M) as N_M,                        RightNM.N_M) as N_M,*
 *LeftNM.Id as L                              LeftNM.Id as L*
 *Sys.EmitTime as Time,                       Sys.EmitTime as Time,*
 *Sys.Undo as Undo,                           Sys.Undo as Undo,*
 *FROM LeftNM INNER JOIN RightNM              FROM LeftNM SEMI JOIN RightNM*
 *ON LeftNM.N_M = RightNM.N_M;                ON LeftNM.N_M = RightNM.N_M;*
----------------------------                ----------------------------
| N_M | L   | Time  | Undo |                | N_M | L   | Time  | Undo |
----------------------------                ----------------------------
| 1:2 | L4  | 12:05 |      |                | 1:2 | L4  | 12:05 |      |
| 1:2 | L4 | 12:05 |  |                | 2:1 | L5B | 12:08 |      |
| 2:1 | L5B | 12:08 |      |                | 2:1 | L5A | 12:09 |      |
| 2:1 | L5A | 12:09 |      |                | 2:2 | L6B | 12:11 |      |
| 2:2 | L6B | 12:11 |      |                | 2:2 | L6A | 12:12 |      |
| 2:2 | L6A | 12:12 |      |                | 1:1 | L3  | 12:14 |      |
| 2:2 | L6A | 12:13 |  |                ...... [12:00, 12:15] ......
| 2:2 | L6B | 12:13 |  |
| 1:1 | L3  | 12:14 |      |
...... [12:00, 12:15] ......      

正如我们在许多示例中所看到的,流连接并没有什么特别之处。它们的功能完全符合我们对流和表的了解,连接流捕获了随着时间推移而发展的连接历史。这与连接表形成对比,后者只是在特定时间点捕获了整个连接的快照,这可能是我们更习惯的方式。

但更重要的是,通过流-表理论的视角来看待连接增加了一些额外的清晰度。核心的基础连接原语是FULL OUTER连接,它是一个流→表分组操作,将关系中所有连接和未连接的行收集在一起。我们详细研究的所有其他变体(LEFT OUTERRIGHT OUTERINNERANTISEMI)只是在FULL OUTER连接后对连接流添加了一个额外的过滤层。³

窗口化连接

在查看了各种未窗口化的连接之后,让我们接下来探讨窗口化对混合的影响。我认为窗口化连接有两个动机:

以某种有意义的方式分区时间

一个明显的情况是固定窗口;例如,每日窗口,对于在同一天发生的事件应该出于某种业务原因进行连接(例如,每日计费总额)。另一个可能是出于性能原因限制连接中的时间范围。然而,事实证明,在连接中还有更复杂(和有用)的时间分区方式,包括一种特别有趣的用例,我目前所知的任何流系统都不支持本地:时间有效连接。稍后再详细介绍。

为连接提供一个有意义的超时参考点

这对于许多无界连接情况非常有用,但对于外连接等用例来说,它可能最明显地有益,因为无法事先知道连接的一侧是否会出现。对于经典的批处理(包括标准交互式 SQL 查询),只有在有界输入数据集被完全处理时,外连接才会超时。但是在处理无界数据时,我们不能等待所有数据被处理。正如我们在第二章和第三章中讨论的那样,水印为事件时间的输入源的完整性提供了一个进度指标。但是,为了利用该指标来超时连接,我们需要一些参考点进行比较。通过对连接进行窗口化,可以通过将连接的范围限定到窗口的末尾来提供该参考点。在水印通过窗口的末尾之后,系统可能会认为窗口的输入已完成。在那时,就像有界连接的情况一样,可以安全地超时任何未连接的行并实现它们的部分结果。

也就是说,正如我们之前看到的,窗口化绝对不是流连接的必要条件。在许多情况下是有意义的,但绝不是必需的。

实际上,大多数窗口化连接的用例(例如,每日窗口)相对简单,可以从我们到目前为止学到的概念中轻松推断出来。为了理解原因,我们简要看一下将固定窗口应用于我们已经遇到的一些连接示例意味着什么。之后,我们将在本章的其余部分中调查更有趣(也更令人费解)的时间有效连接主题,首先详细了解我所说的时间有效窗口,然后继续研究在这种窗口的上下文中连接意味着什么。

固定窗口

连接的窗口化将时间维度纳入连接条件本身。通过这样做,窗口用于将要连接的行的集合范围限定为仅包含在窗口时间间隔内的行。这可能更清楚地通过一个例子来看到,所以让我们将我们的原始LeftRight表窗口化为五分钟的固定窗口:


*12:10> SELECT TABLE *,                     12:10> SELECT TABLE *,*
 *TUMBLE(Time, INTERVAL '5' MINUTE)          TUMBLE(Time, INTERVAL '5' MINUTE)*
 *as Window FROM Left;                       as Window FROM Right*
-------------------------------------      -------------------------------------
| Num | Id | Time  | Window         |      | Num | Id | Time  | Window         |
-------------------------------------      -------------------------------------
| 1   | L1 | 12:02 | [12:00, 12:05) |      | 2   | R2 | 12:01 | [12:00, 12:05) |
| 2   | L2 | 12:06 | [12:05, 12:10) |      | 3   | R3 | 12:04 | [12:00, 12:05) |
| 3   | L3 | 12:03 | [12:00, 12:05) |      | 4   | R4 | 12:05 | [12:05, 12:06) |
-------------------------------------      -------------------------------------

在我们之前的“左”和“右”示例中,连接条件只是“左.Num = 右.Num”。要将其转换为窗口连接,我们将扩展连接条件以包括窗口相等:左.Num = 右.Num AND 左.Window = 右.Window。知道这一点,我们可以从前面的窗口表中推断出我们的连接将如何改变(为了清晰起见进行了突出显示):因为L2R2行不在同一个五分钟的固定窗口内,它们在我们连接的窗口变体中将不会被连接在一起。

实际上,如果我们将未窗口化和窗口化的变体作为表进行对比,我们可以清楚地看到这一点(在连接的每一侧都突出显示了相应的L2R2行):


 *12:10> SELECT TABLE* 
 *Left.Id as L,*
 *Right.Id as R,*
 *COALESCE(*
 *TUMBLE(Left.Time, INTERVAL '5' MINUTE),*
 *TUMBLE(Right.Time, INTERVAL '5' MINUTE)*
*12:10> SELECT TABLE                       ) AS Window*
 *Left.Id as L,                  FROM Left*
 *Right.Id as R,                   FULL OUTER JOIN Right* 
 *FROM Left                          ON L.Num = R.Num AND* 
 *FULL OUTER JOIN Right              TUMBLE(Left.Time, INTERVAL '5' MINUTE) =*
 *ON L.Num = R.Num;                  TUMBLE(Right.Time, INTERVAL '5' MINUTE);*
---------------                  --------------------------------
| L    | R    |                  | L    | R    | Window         |
---------------                  --------------------------------
| L1   | null |                  | L1   | null | [12:00, 12:05) |
| L2   | R2 |                  | null | R2   | [12:00, 12:05) |
| L3   | R3   |                  | L3   | R3   | [12:00, 12:05) |
| null | R4   |                  | L2   | null | [12:05, 12:10) |
---------------                  | null | R4   | [12:05, 12:10) |
                                 --------------------------------

当比较未窗口化和窗口化的连接作为流时,差异也是显而易见的。如下例所示,它们主要在最终行上有所不同。未窗口化的一侧完成了Num = 2的连接,产生了一个未连接的R2行的撤回,以及一个完成的“L2,R2”连接的新行。另一方面,窗口化的一侧只产生了一个未连接的L2行,因为L2R2落入不同的五分钟窗口:


 *12:10> SELECT STREAM* 
 *Left.Id as L,*
 *Right.Id as R,*
 *Sys.EmitTime as Time,*
 *COALESCE(*
 *TUMBLE(Left.Time, INTERVAL '5' MINUTE),*
*12:10> SELECT STREAM                        TUMBLE(Right.Time, INTERVAL '5' MINUTE)*
 *Left.Id as L,                    ) AS Window,*
 *Right.Id as R,                 Sys.Undo as Undo*
 *Sys.EmitTime as Time,          FROM Left*
 *Sys.Undo as Undo                 FULL OUTER JOIN Right*
 *FROM Left                          ON L.Num = R.Num AND*
 *FULL OUTER JOIN Right              TUMBLE(Left.Time, INTERVAL '5' MINUTE) =*
 *ON L.Num = R.Num;                  TUMBLE(Right.Time, INTERVAL '5' MINUTE);*
------------------------------   -----------------------------------------------
| L    | R    | Time  | Undo |   | L    | R    | Time  | Window         | Undo |
------------------------------   -----------------------------------------------
| null | R2   | 12:01 |      |   | null | R2   | 12:01 | [12:00, 12:05) |      |
| L1   | null | 12:02 |      |   | L1   | null | 12:02 | [12:00, 12:05) |      |
| L3   | null | 12:03 |      |   | L3   | null | 12:03 | [12:00, 12:05) |      |
| L3   | null | 12:04 | undo |   | L3   | null | 12:04 | [12:00, 12:05) | undo |
| L3   | R3   | 12:04 |      |   | L3   | R3   | 12:04 | [12:00, 12:05) |      |
| null | R4   | 12:05 |      |   | null | R4   | 12:05 | [12:05, 12:10) |      |
| null | R2   | 12:06 | undo |   | L2   | null | 12:06 | [12:05, 12:10) | |
| L2   | R2   | 12:06 | |   ............... [12:00, 12:10] ................
....... [12:00, 12:10] .......

有了这一点,我们现在了解了窗口对FULL OUTER连接的影响。通过应用我们在本章前半部分学到的规则,很容易推导出LEFT OUTERRIGHT OUTERINNERANTISEMI连接的窗口化变体。我会把这些推导的大部分留给你来完成,但是举一个例子,LEFT OUTER连接,正如我们所学的,只是在左侧的FULL OUTER连接中删除了空列(再次突出显示了L2R2行以比较差异):


 *12:10> SELECT TABLE* 
 *Left.Id as L,*
 *Right.Id as R,*
 *COALESCE(*
 *TUMBLE(Left.Time, INTERVAL '5' MINUTE),*
 *TUMBLE(Right.Time, INTERVAL '5' MINUTE)*
*12:10> SELECT TABLE                       ) AS Window*
 *Left.Id as L,                  FROM Left*
 *Right.Id as R,                   LEFT OUTER JOIN Right* 
 *FROM Left                          ON L.Num = R.Num AND* 
 *LEFT OUTER JOIN Right              TUMBLE(Left.Time, INTERVAL '5' MINUTE) =*
 *ON L.Num = R.Num;                  TUMBLE(Right.Time, INTERVAL '5' MINUTE);*
---------------                  --------------------------------
| L    | R    |                  | L    | R    | Window         |
---------------                  --------------------------------
| L1   | null |                  | L1   | null | 12:00, 12:05) |
| L2   | R2 |                  | L2   | null | [12:05, 12:10) |
| L3   | R3   |                  | L3   | R3   | [12:00, 12:05) |
---------------                  --------------------------------

通过将连接的时间范围划分为固定的五分钟间隔,我们将我们的数据集划分为两个不同的时间窗口:12:00, 12:05)[12:05, 12:10)。然后在这些区域内应用了我们之前观察到的完全相同的连接逻辑,对于L2R2行分别落入不同区域的情况,得到了稍微不同的结果。基本上,窗口连接就是这样。

时间有效性

在看完窗口连接的基础知识后,我们现在将在本章的其余部分中看一种更高级的方法:时间有效性窗口。

时间有效性窗口

时间有效性窗口适用于在关系中的行有效地将时间划分为区域,其中给定值有效。更具体地说,想象一个用于执行货币转换的金融系统。这样的系统可能包含一个随时间变化的关系,记录了各种货币的当前转换率。例如,可能存在一个将不同货币转换为日元的关系。


*12:10> SELECT TABLE * FROM YenRates;*
--------------------------------------
| Curr | Rate | EventTime | ProcTime |
--------------------------------------
| USD  | 102  | 12:00:00  | 12:04:13 |
| Euro | 114  | 12:00:30  | 12:06:23 |
| Yen  | 1    | 12:01:00  | 12:05:18 |
| Euro | 116  | 12:03:00  | 12:09:07 |
| Euro | 119  | 12:06:00  | 12:07:33 |
--------------------------------------

为了强调我所说的时间有效性窗口“有效地将时间划分为区域,其中给定值有效”,只考虑该关系中的欧元兑换成日元的汇率:


*12:10> SELECT TABLE * FROM YenRates WHERE Curr = "Euro";*
--------------------------------------
| Curr | Rate | EventTime | ProcTime |
--------------------------------------
| Euro | 114  | 12:00:30  | 12:06:23 |
| Euro | 116  | 12:03:00  | 12:09:07 |
| Euro | 119  | 12:06:00  | 12:07:33 |
--------------------------------------

从数据库工程的角度来看,我们知道这些值并不意味着将欧元兑换成日元的汇率在 12:00 精确为 114 ¥/€,12:03 为 116 ¥/€,12:06 为 119 ¥/€,其他时间为未定义。相反,我们知道这个表的意图是捕捉欧元兑换成日元的汇率在 12:00 之前是未定义的,在 12:00 到 12:03 为 114 ¥/€,12:03 到 12:06 为 116 ¥/€,之后为 119 ¥/€。或者在时间轴上画出来:


        Undefined              114 ¥/116 ¥/119 ¥/|----[-inf, 12:00)----|----[12:00, 12:03)----|----[12:03, 12:06)----|----[12:06, now)----

现在,如果我们提前知道所有的费率,我们可以在行数据中明确地捕获这些区域。但是,如果我们需要基于给定费率变为有效的开始时间来逐步构建这些区域,我们会遇到问题:给定行的区域会随着之后的行的变化而随时间变化。即使数据按顺序到达也会出现这个问题(因为每次新费率到达时,先前的费率从永久有效变为有效直到新费率到达时间),但如果它们可以无序到达,则问题会进一步复杂化。例如,使用前面YenRates表中的处理时间排序,我们的表在时间上有效地表示的时间线序列将如下所示:


Range of processing time | Event-time validity timeline during that range of processing-time
=========================|==============================================================================
                         |
                         |      Undefined
        [-inf, 12:06:23) | |--[-inf, +inf)---------------------------------------------------------|
                         |      Undefined          114 ¥/[12:06:23, 12:07:33) | |--[-inf, 12:00)--|--[12:00, +inf)--------------------------------------|
                         |      Undefined          114 ¥/119 ¥/[12:07:33, 12:09:07) | |--[-inf, 12:00)--|--[12:00, 12:06)---------------------|--[12:06, +inf)|
                         |      Undefined          114 ¥/116 ¥/119 ¥/[12:09:07, now) | |--[-inf, 12:00)--|--[12:00, 12:03)--|--[12:03, 12:06)--|--[12:06, +inf)

或者,如果我们想将其呈现为一个时间变化的关系(每个快照关系之间的变化用黄色突出显示):


*12:10> SELECT TVR * FROM YenRatesWithRegion ORDER BY EventTime;*
---------------------------------------------------------------------------------------------
|              [-inf, 12:06:23)               |            [12:06:23, 12:07:33)             |
| ------------------------------------------- | ------------------------------------------- |
| | Curr | Rate |  Region        | ProcTime | | | Curr | Rate |  Region        | ProcTime | |
| ------------------------------------------- | ------------------------------------------- |
| ------------------------------------------- | | Euro | 114 | [12:00, +inf) | 12:06:23 | |
|                                             | ------------------------------------------- |
---------------------------------------------------------------------------------------------
|            [12:07:33, 12:09:07)             |              [12:09:07, +inf)               |
| ------------------------------------------- | ------------------------------------------- |
| | Curr | Rate |  Region        | ProcTime | | | Curr | Rate |  Region        | ProcTime | |
| ------------------------------------------- | ------------------------------------------- |
| | Euro | 114  | [12:00, 12:06) | 12:06:23 | | | Euro | 114  | [12:00, 12:03) | 12:06:23 | |
| | Euro | 119 | [12:06, +inf) | 12:07:33 | | | Euro | 116 | [12:03, 12:06) | 12:09:07 | |
| ------------------------------------------- | | Euro | 119  | [12:06, +inf)  | 12:07:33 | |
|                                             | ------------------------------------------- |
---------------------------------------------------------------------------------------------

这里需要注意的重要一点是,一半的变化涉及对多行的更新。这可能听起来不那么糟糕,直到你想起每个快照之间的差异是恰好到达一个新行。换句话说,单个新输入行的到达导致对多个输出行进行事务修改。这听起来不那么好。另一方面,这也听起来很像建立会话窗口所涉及的多行事务。事实上,这又是窗口提供超出简单时间分区的好处的另一个例子:它还提供了以涉及复杂的多行事务的方式进行操作的能力。

要看到这一点,让我们看一个动画。如果这是一个 Beam 管道,它可能看起来像以下内容:


PCollection<Currency, Decimal> yenRates = ...;
PCollection<Decimal> validYenRates = yenRates
    .apply(Window.into(new ValidityWindows())
    .apply(GroupByKey.<Currency, Decimal>create());

在流/表动画中呈现,该管道看起来像图 9-1 所示的样子。

<assets/stsy_0901.mp4>

![随时间变化的时间有效窗口

图 9-1。随时间变化的时间有效窗口

这个动画突出了时间有效的一个关键方面:缩小窗口。有效窗口必须能够随时间缩小,从而减少其有效范围,并将其中包含的任何数据分割成两个新窗口。请参阅GitHub 上的代码片段以获取一个示例部分实现。⁵

用 SQL 术语来说,创建这些有效窗口会看起来像以下内容(利用一个假设的VALIDITY_WINDOW结构),视为一个表:


*12:10> SELECT TABLE* 
 *Curr,*
 *MAX(Rate) as Rate,*
 *VALIDITY_WINDOW(EventTime) as Window*
 *FROM YenRates* 
 *GROUP BY*
 *Curr,*
 *VALIDITY_WINDOW(EventTime)*
 *HAVING Curr = "Euro";*
--------------------------------
| Curr | Rate | Window         |
--------------------------------
| Euro | 114  | [12:00, 12:03) |
| Euro | 116  | [12:03, 12:06) |
| Euro | 119  | [12:06, +inf)  |
--------------------------------

或者,更有趣的是,将其视为一个流:


*12:00> SELECT STREAM*
 *Curr,*
 *MAX(Rate) as Rate,*
 *VALIDITY_WINDOW(EventTime) as Window,*
 *Sys.EmitTime as Time,*
 *Sys.Undo as Undo,*
 *FROM YenRates*
 *GROUP BY*
 *Curr,*
 *VALIDITY_WINDOW(EventTime)* 
 *HAVING Curr = "Euro";*
--------------------------------------------------
| Curr | Rate | Window         | Time     | Undo |
--------------------------------------------------
| Euro | 114  | [12:00, +inf)  | 12:06:23 |      |
| Euro | 114  | [12:00, +inf)  | 12:07:33 | undo |
| Euro | 114  | [12:00, 12:06) | 12:07:33 |      | 
| Euro | 119  | [12:06, +inf)  | 12:07:33 |      |
| Euro | 114  | [12:00, 12:06) | 12:09:07 | undo | 
| Euro | 114  | [12:00, 12:03) | 12:09:07 |      |
| Euro | 116  | [12:03, 12:06) | 12:09:07 |      |
................. [12:00, 12:10] .................

很好,我们知道如何使用点时间值有效地将时间划分为值有效的范围。但是,当这些时间有效窗口应用于与其他数据连接时,它们的真正力量就显现出来。这就是时间有效连接的作用所在。

时间有效连接

为了探索时间有效连接的语义,假设我们的金融应用包含另一个时间变化的关系,跟踪各种货币兑换订单到日元的情况:


*12:10> SELECT TABLE * FROM YenOrders;*
----------------------------------------
| Curr | Amount | EventTime | ProcTime |
----------------------------------------
| Euro | 2      | 12:02:00  | 12:05:07 |
| USD  | 1      | 12:03:00  | 12:03:44 |
| Euro | 5      | 12:05:00  | 12:08:00 |
| Yen  | 50     | 12:07:00  | 12:10:11 |
| Euro | 3      | 12:08:00  | 12:09:33 |
| USD  | 5      | 12:10:00  | 12:10:59 |
----------------------------------------

为了简单起见,和之前一样,让我们专注于欧元转换:


*12:10> SELECT TABLE * FROM YenOrders WHERE Curr = "Euro";*
----------------------------------------
| Curr | Amount | EventTime | ProcTime |
----------------------------------------
| Euro | 2      | 12:02:00  | 12:05:07 |
| Euro | 5      | 12:05:00  | 12:08:00 |
| Euro | 3      | 12:08:00  | 12:09:33 |
----------------------------------------

我们希望将这些订单与YenRates关系健壮地连接起来,将YenRates中的行视为定义有效窗口。因此,我们实际上希望连接到上一节末尾构建的YenRates关系的有效窗口版本:


*12:10> SELECT TABLE*
 *Curr,*
 *MAX(Rate) as Rate,*
 *VALIDITY_WINDOW(EventTime) as Window*
 *FROM YenRates*
 *GROUP BY*
 *Curr,*
 *VALIDITY_WINDOW(EventTime)*
 *HAVING Curr = "Euro";*
--------------------------------
| Curr | Rate | Window         |
--------------------------------
| Euro | 114  | [12:00, 12:03) |
| Euro | 116  | [12:03, 12:06) |
| Euro | 119  | [12:06, +inf)  |
--------------------------------

幸运的是,在我们将转换率放入有效窗口之后,这些费率与YenOrders关系之间的窗口连接正好给了我们想要的结果:


*12:10> WITH ValidRates AS*
 *(SELECT*
 *Curr,*
 *MAX(Rate) as Rate,*
 *VALIDITY_WINDOW(EventTime) as Window*
 *FROM YenRates*
 *GROUP BY*
 *Curr,*
 *VALIDITY_WINDOW(EventTime))*
 *SELECT TABLE*
 *YenOrders.Amount as "E",*
 *ValidRates.Rate as "Y/E",* 
 *YenOrders.Amount * ValidRates.Rate as "Y",*
 *YenOrders.EventTime as Order,* 
 *ValidRates.Window as "Rate Window"*
 *FROM YenOrders FULL OUTER JOIN ValidRates* 
 *ON YenOrders.Curr = ValidRates.Curr*
 *AND WINDOW_START(ValidRates.Window) <= YenOrders.EventTime*
 *AND YenOrders.EventTime < WINDOW_END(ValidRates.Window)*
 *HAVING Curr = "Euro";*
-------------------------------------------
| E | Y/E | Y   | Order  | Rate Window    |
-------------------------------------------
| 2 | 114 | 228 | 12:02  | [12:00, 12:03) |
| 5 | 116 | 580 | 12:05  | [12:03, 12:06) |
| 3 | 119 | 357 | 12:08  | [12:06, +inf)  |
-------------------------------------------

回想一下我们最初的YenRatesYenOrders关系,这个连接的关系确实看起来是正确的:每个转换最终都以给定事件时间窗口的(最终)适当汇率结束,其对应的订单也在其中。因此,我们可以相当肯定,这个连接在提供我们想要的最终正确性方面做得很好。

也就是说,这个关系的简单快照视图,是在所有值都到达并且尘埃落定之后拍摄的,掩盖了这个连接的复杂性。要真正理解这里发生了什么,我们需要查看完整的 TVR。首先,回想一下,有效窗口转换率关系实际上比之前的简单表格快照视图所让你相信的要复杂得多。供参考,这里是有效窗口关系的STREAM版本,它更好地突出了这些转换率随时间的演变:


*12:00> SELECT STREAM*
 *Curr,*
 *MAX(Rate) as Rate,*
 *VALIDITY(EventTime) as Window,*
 *Sys.EmitTime as Time,*
 *Sys.Undo as Undo,*
 *FROM YenRates*
 *GROUP BY*
 *Curr,*
 *VALIDITY(EventTime)*
 *HAVING Curr = "Euro";*
--------------------------------------------------
| Curr | Rate | Window         | Time     | Undo |
--------------------------------------------------
| Euro | 114  | [12:00, +inf)  | 12:06:23 |      |
| Euro | 114  | [12:00, +inf)  | 12:07:33 | undo |
| Euro | 114  | [12:00, 12:06) | 12:07:33 |      | 
| Euro | 119  | [12:06, +inf)  | 12:07:33 |      |
| Euro | 114  | [12:00, 12:06) | 12:09:07 | undo | 
| Euro | 114  | [12:00, 12:03) | 12:09:07 |      |
| Euro | 116  | [12:03, 12:06) | 12:09:07 |      |
................. [12:00, 12:10] .................

因此,如果我们查看我们的有效窗口连接的完整 TVR,您会发现随着时间的推移,这种连接的对应演变要复杂得多,这是由于连接的两侧值的无序到达:


*12:10> WITH ValidRates AS*
 *(SELECT*
 *Curr,*
 *MAX(Rate) as Rate,*
 *VALIDITY_WINDOW(EventTime) as Window*
 *FROM YenRates*
 *GROUP BY*
 *Curr,*
 *VALIDITY_WINDOW(EventTime))*
 *SELECT TVR*
 *YenOrders.Amount as "E",*
 *ValidRates.Rate as "Y/E",* 
 *YenOrders.Amount * ValidRates.Rate as "Y",*
 *YenOrders.EventTime as Order,*
 *ValidRates.Window as "Rate Window"*
 *FROM YenOrders FULL OUTER JOIN ValidRates* 
 *ON YenOrders.Curr = ValidRates.Curr*
 *AND WINDOW_START(ValidRates.Window) <= YenOrders.EventTime*
 *AND YenOrders.EventTime < WINDOW_END(ValidRates.Window)*
 *HAVING Curr = "Euro";*
-------------------------------------------------------------------------------------------
|              [-inf, 12:05:07)              |            [12:05:07, 12:06:23)            |
| ------------------------------------------ | ------------------------------------------ |
| | E | Y/E | Y   | Order | Rate Window    | | | E | Y/E | Y   | Order | Rate Window    | |
| ------------------------------------------ | ------------------------------------------ |
| ------------------------------------------ | | 2 |  |  | 12:02 |  | |
|                                            | ------------------------------------------ |
-------------------------------------------------------------------------------------------
|            [12:06:23, 12:07:33)            |            [12:07:33, 12:08:00)            |
| ------------------------------------------ | ------------------------------------------ |
| | E | Y/E | Y   | Order | Rate Window    | | | E | Y/E | Y   | Order | Rate Window    | |
| ------------------------------------------ | ------------------------------------------ |
| | 2 | 114 | 228 | 12:02 | [12:00, +inf) | | | 2 | 114 | 228 | 12:02 | [12:00, 12:06) | |
| ------------------------------------------ | |  | 119 |  |  | [12:06, +inf) | |
|                                            | ------------------------------------------ |
-------------------------------------------------------------------------------------------
|            [12:08:00, 12:09:07)            |            [12:09:07, 12:09:33)            |
| ------------------------------------------ | ------------------------------------------ |
| | E | Y/E | Y   | Order | Rate Window    | | | E | Y/E | Y   | Order | Rate Window    | |
| ------------------------------------------ | ------------------------------------------ |
| | 2 | 114 | 228 | 12:02 | [12:00, 12:06) | | | 2 | 114 | 228 | 12:02 | [12:00, 12:03) | |
| | 5 | 114 | 570 | 12:05 | [12:03, 12:06) | | | 5 | 116 | 580 | 12:05 | [12:03, 12:06) | |
| |   | 119 |     |       | [12:06, +inf)  | | |   | 119 |     | 12:08 | [12:06, +inf)  | |
| ------------------------------------------ | ------------------------------------------ |
-------------------------------------------------------------------------------------------
|               [12:09:33, now)              |
| ------------------------------------------ |
| | E | Y/E | Y   | Order | Rate Window    | |
| ------------------------------------------ |
| | 2 | 114 | 228 | 12:02 | [12:00, 12:03) | |
| | 5 | 116 | 580 | 12:05 | [12:03, 12:06) | |
| | 3 | 119 | 357 | 12:08 | [12:06, +inf)  | |
| ------------------------------------------ |
----------------------------------------------

特别是,5€订单的结果最初报价为 570¥,因为该订单(发生在 12:05)最初落入 114¥/€汇率的有效窗口。但是,当 12:03 发生的 116¥/€汇率无序到达时,5€订单的结果必须从 570¥更新为 580¥。如果您观察连接的结果作为流(这里我用红色突出显示了不正确的 570¥,用蓝色显示了 570¥的撤回和随后更正为 580¥的值),这也是显而易见的:


*12:00> WITH ValidRates AS*
 *(SELECT*
 *Curr,*
 *MAX(Rate) as Rate,*
 *VALIDITY_WINDOW(EventTime) as Window*
 *FROM YenRates*
 *GROUP BY*
 *Curr,*
 *VALIDITY_WINDOW(EventTime))*
 *SELECT STREAM*
 *YenOrders.Amount as "E",*
 *ValidRates.Rate as "Y/E",* 
 *YenOrders.Amount * ValidRates.Rate as "Y",*
 *YenOrders.EventTime as Order,*
 *ValidRates.Window as "Rate Window",*
 *Sys.EmitTime as Time,*
 *Sys.Undo as Undo*
 *FROM YenOrders FULL OUTER JOIN ValidRates* 
 *ON YenOrders.Curr = ValidRates.Curr*
 *AND WINDOW_START(ValidRates.Window) <= YenOrders.EventTime*
 *AND YenOrders.EventTime < WINDOW_END(ValidRates.Window)*
 *HAVING Curr =Euro;*
------------------------------------------------------------
| E | Y/E | Y   | Order | Rate Window    | Time     | Undo | 
------------------------------------------------------------
| 2 |     |     | 12:02 |                | 12:05:07 |      |
| 2 |     |     | 12:02 |                | 12:06:23 | undo |
| 2 | 114 | 228 | 12:02 | [12:00, +inf)  | 12:06:23 |      |
| 2 | 114 | 228 | 12:02 | [12:00, +inf)  | 12:07:33 | undo |
| 2 | 114 | 228 | 12:02 | [12:00, 12:06) | 12:07:33 |      |
|   | 119 |     |       | [12:06, +inf)  | 12:07:33 |      |
| 5 | 114 | 570 | 12:05 | [12:00, 12:06) | 12:08:00 |  |
| 2 | 114 | 228 | 12:02 | [12:00, 12:06) | 12:09:07 | undo |
| 5 | 114 | 570 | 12:05 | [12:00, 12:06) | 12:09:07 | undo |
| 2 | 114 | 228 | 12:02 | [12:00, 12:03) | 12:09:07 |      |
| 5 | 116 | 580 | 12:05 | [12:03, 12:06) | 12:09:07 |  |
|   | 119 |     |       | [12:06, +inf)  | 12:09:33 | undo |
| 3 | 119 | 357 | 12:08 | [12:06, +inf)  | 12:09:33 |      |
...................... [12:00, 12:10] ......................

值得一提的是,由于使用了FULL OUTER连接,这是一个相当混乱的流。实际上,当将转换订单作为流进行消耗时,您可能不关心未连接的行;切换到INNER连接有助于消除这些行。您可能也不关心汇率窗口发生变化,但实际转换值并未受到影响。通过从流中删除汇率窗口,我们可以进一步减少其通信量:


*12:00> WITH ValidRates AS*
 *(SELECT*
 *Curr,*
 *MAX(Rate) as Rate,*
 *VALIDITY_WINDOW(EventTime) as Window*
 *FROM YenRates*
 *GROUP BY*
 *Curr,*
 *VALIDITY_WINDOW(EventTime))*
 *SELECT STREAM*
 *YenOrders.Amount as "E",*
 *ValidRates.Rate as "Y/E",* 
 *YenOrders.Amount * ValidRates.Rate as "Y",*
 *YenOrders.EventTime as Order,*
 *~~ValidRates.Window as "Rate Window",~~*
 *Sys.EmitTime as Time,*
 *Sys.Undo as Undo*
 *FROM YenOrders INNER JOIN ValidRates* 
 *ON YenOrders.Curr = ValidRates.Curr*
 *AND WINDOW_START(ValidRates.Window) <= YenOrders.EventTime*
 *AND YenOrders.EventTime < WINDOW_END(ValidRates.Window)*
 *HAVING Curr = "Euro";*
-------------------------------------------
| E | Y/E | Y   | Order | Time     | Undo |
-------------------------------------------
| 2 | 114 | 228 | 12:02 | 12:06:23 |      |
| 5 | 114 | 570 | 12:05 | 12:08:00 |  |
| 5 | 114 | 570 | 12:05 | 12:09:07 | undo |
| 5 | 116 | 580 | 12:05 | 12:09:07 |  |
| 3 | 119 | 357 | 12:08 | 12:09:33 |      |
............. [12:00, 12:10] ..............

好多了。现在我们可以清楚地看到,这个查询非常简洁地完成了我们最初的目标:以一种健壮的方式连接两个货币转换率和订单的 TVR,而且对数据无序到达具有容忍性。图 9-2 将此查询可视化为动画图表。在其中,您还可以非常清楚地看到随着时间的推移整体结构的变化方式。

<assets/stsy_0902.mp4>

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 9-2。使用每条记录触发的时间有效连接,将欧元转换为日元
水印和时间有效连接

通过这个例子,我们突出了本节开头提到的窗口连接的第一个好处:窗口连接允许您根据一些实际业务需求在时间内对连接进行分区。在这种情况下,业务需求是将时间划分为我们货币转换率的有效区域。

然而,在我们结束之前,事实证明这个例子也提供了一个突出第二点的机会:窗口连接可以为水印提供有意义的参考点。要看到这有多有用,想象一下将前面的查询更改为使用显式水印触发器替换隐式默认的每条记录触发器,当水印通过连接中有效窗口的末端时触发一次(假设我们有一个水印可用于我们的输入 TVR,准确跟踪这些关系在事件时间上的完整性,以及一个执行引擎知道如何考虑这些水印)。现在,我们的流不再包含多个输出和对到达顺序不正确的汇率的撤销,而是最终得到一个流,其中每个订单包含一个正确的转换结果,这显然比以前更理想:


*12:00> WITH ValidRates AS*
 *(SELECT*
 *Curr,*
 *MAX(Rate) as Rate,*
 *VALIDITY_WINDOW(EventTime) as Window*
 *FROM YenRates*
 *GROUP BY*
 *Curr,*
 *VALIDITY_WINDOW(EventTime))*
 *SELECT STREAM*
 *YenOrders.Amount as "E",*
 *ValidRates.Rate as "Y/E",* 
 *YenOrders.Amount * ValidRates.Rate as "Y",*
 *YenOrders.EventTime as Order,*
 *Sys.EmitTime as Time,*
 *Sys.Undo as Undo*
 *FROM YenOrders INNER JOIN ValidRates* 
 *ON YenOrders.Curr = ValidRates.Curr*
 *AND WINDOW_START(ValidRates.Window) <= YenOrders.EventTime*
 *AND YenOrders.EventTime < WINDOW_END(ValidRates.Window)*
 *HAVING Curr = "Euro"*
 *EMIT WHEN WATERMARK PAST WINDOW_END(ValidRates.Window);*
-------------------------------------------
| E | Y/E | Y   | Order | Time     | Undo |
-------------------------------------------
| 2 | 114 | 228 | 12:02 | 12:08:52 |      |
| 5 | 116 | 580 | 12:05 | 12:10:04 |      |
| 3 | 119 | 357 | 12:08 | 12:10:13 |      |
............. [12:00, 12:11] ..............

或者,以动画形式呈现,清楚地显示了连接的结果直到水印移动到它们之外才被发射到输出流中,如图 9-3 所示。

<assets/stsy_0903.mp4>

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 9-3。时间有效性连接,将欧元转换为日元,使用水印触发

无论如何,令人印象深刻的是,这个查询将如此复杂的交互集合封装成了所需结果的清晰简洁的呈现。

总结

在本章中,我们分析了在流处理的上下文中使用 SQL 连接词汇的连接世界。我们从未窗口连接开始,看到了概念上所有连接都是流连接的核心。我们看到了基本上所有其他连接变体的基础是FULL OUTER连接,并讨论了作为LEFT OUTERRIGHT OUTERINNERANTISEMI甚至CROSS连接的特定变化。此外,我们看到了所有这些不同的连接模式在 TVR 和流的世界中是如何相互作用的。

接下来,我们转向了窗口连接,并了解到窗口连接通常受到以下一个或两个方面的动机:

  • 在时间内对连接进行分区的能力对某些业务需求来说是令人印象深刻的

  • 将连接的结果与水印的进展联系起来的能力

最后,我们深入探讨了与连接相关的一种更有趣和有用的窗口类型:时间有效性窗口。我们看到时间有效性窗口如何自然地将时间划分为给定值的有效区域,仅基于这些值发生变化的特定时间点。我们了解到,在有效性窗口内进行连接需要支持可以随时间分割的窗口的窗口框架,这是当今没有任何现有的流系统本能支持的。我们看到时间有效性窗口如何简洁地让我们以稳健、自然的方式解决了将货币转换率和订单的 TVR 进行连接的问题。

连接通常是数据处理中最令人生畏的方面之一,无论是流式处理还是其他方式。然而,通过理解连接的理论基础以及我们如何可以从基本的基础中简单地推导出所有不同类型的连接,连接变得不再是一头可怕的野兽,即使在流式处理增加了时间维度的情况下。

¹至少从概念上来看。实现这些类型的连接有许多不同的方法,其中一些可能比执行实际的FULL OUTER连接然后过滤其结果更有效,特别是当考虑到查询的其余部分和数据的分布时。

²再次忽略当存在重复连接键时会发生什么;关于这一点我们稍后会讨论SEMI连接。

³ 从概念上讲,至少是这样。当然,实现这些类型的连接的方式有很多种,其中一些可能比执行实际的FULL OUTER连接然后过滤其结果更有效,这取决于查询的其余部分和数据的分布。

⁴ 请注意,示例数据和激发它的时间连接用例几乎完全来自 Julian Hyde 的优秀文档“Streams, joins, and temporal tables”。

⁵ 这是一个部分实现,因为它只在窗口存在于孤立状态时才有效,就像图 9-1 中所示。一旦将窗口与其他数据混合在一起,例如下面的连接示例,您将需要一些机制来将来自缩小窗口的数据分割成两个单独的窗口,而 Beam 目前并没有提供这样的机制。

第十章:大规模数据处理的演变

你现在已经到达了这本书的最后一章,你这位坚忍的有文化的人。你的旅程很快就要结束了!

最后,我想邀请你和我一起进行一个简短的历史漫步,从 MapReduce 的大规模数据处理的古老时代开始,触及在随后的十五年中带来流式系统到今天这一点的一些亮点。这是一个相对轻松的章节,我在其中对一些著名系统(也许还有一些不太知名的系统)的重要贡献做了一些观察,并引用了一些你可以自己阅读的来源材料,如果你想了解更多,同时尽量不冒犯或激怒那些负责的系统的人,他们的真正有影响力的贡献我要么过于简化,要么完全忽略了,这是为了节省空间,专注和连贯的叙述。应该会很有趣。

在阅读本章时,请记住,我们实际上只是在谈论大规模数据处理中 MapReduce/Hadoop 家族的特定部分。我没有以任何方式涵盖 SQL 领域;我们不讨论 HPC/超级计算机等。因此,尽管本章的标题听起来可能很广泛和广泛,但我实际上是在专注于大规模数据处理的宏大宇宙中的一个特定垂直领域。文学警告,等等。

还要注意的是,我在这里涵盖了不成比例的谷歌技术。你会认为这可能与我在谷歌工作了十多年有关。但还有两个原因:1)大数据一直对谷歌很重要,因此在那里创造了一些值得详细讨论的有价值的贡献,2)我的经验是,谷歌以外的人似乎很喜欢了解我们所做的事情,因为我们公司在这方面历来有点守口如瓶。所以请容我多说一些我们在闭门造车方面的工作。

为了让我们的旅程有具体的时间线,我们将遵循图 10-1 中显示的时间线,该时间线显示了我讨论的各种系统的大致存在日期。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-1。本章讨论的系统的大致时间线

在每个停留点,我都会简要介绍我对系统的历史的理解,并从塑造我们今天所知的流式系统的角度来框定它的贡献。最后,我们将总结所有的贡献,看看它们如何总结出今天的现代流处理生态系统。

MapReduce

我们从 MapReduce(图 10-2)开始旅程。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-2。时间线:MapReduce

我认为可以说,今天我们所知道的大规模数据处理始于 2003 年的 MapReduce。在当时,谷歌内部的工程师们正在构建各种定制系统,以解决全球网络规模的数据处理挑战。当他们这样做时,他们注意到了三件事:

数据处理很难

正如我们中的数据科学家和工程师所知,你可以通过专注于从原始数据中提取有用的见解来建立职业。

可扩展性很难

在大规模数据上提取有用的见解更加困难。

容错性很难

在商品硬件上以容错的正确方式从大规模数据中提取有用的见解是残酷的。

在同时解决了这三个挑战之后,他们开始注意到他们构建的定制系统之间的一些相似之处。他们得出结论,如果他们能够构建一个框架来解决后两个问题(可扩展性和容错性),那么专注于第一个问题将会变得简单得多。于是 MapReduce 诞生了。⁴

MapReduce 的基本思想是提供围绕函数式编程领域中两个广为人知的操作 map 和 reduce(图 10-3)的简单数据处理 API。使用该 API 构建的流水线将在一个分布式系统框架上执行,该框架负责处理所有让核心分布式系统工程师激动不已并压垮我们这些凡人灵魂的可扩展性和容错性问题。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-3。MapReduce 作业的可视化

我们在第六章中已经非常详细地讨论了 MapReduce 的语义,所以我们不会在这里详细讨论。只需记住,我们将事情分解为六个离散阶段(MapRead、Map、MapWrite、ReduceRead、Reduce、ReduceWrite),作为我们的流和表分析的一部分,最终我们得出结论,总的来说,Map 和 Reduce 阶段并没有太大的不同;在高层次上,它们都做以下工作:

  • 将表转换为流

  • 对该流应用用户转换以产生另一个流

  • 将该流分组成表

在谷歌内部投入使用后,MapReduce 在各种任务中得到了广泛的应用,团队决定值得与世界其他地方分享他们的想法。结果就是MapReduce 论文,发表于 OSDI 2004(见图 10-4)。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-4。MapReduce 论文,发表于 OSDI 2004

在其中,团队详细描述了项目的历史,API 的设计和实施,以及 MapReduce 应用的许多不同用例的细节。不幸的是,他们没有提供实际的源代码,因此当时谷歌以外的人们能做的就是说,“是的,这听起来确实很不错”,然后回去构建他们定制的系统。

在随后的十年中,MapReduce 在谷歌内部继续进行大量的开发,投入大量时间使系统扩展到前所未有的规模。对于这段旅程中的一些亮点的更详细描述,我推荐我们的官方 MapReduce 历史学家/可扩展性和性能专家 Marián Dvorský撰写的文章“Google 大规模排序实验的历史”(图 10-5)。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-5。Marián Dvorský的“大规模排序实验历史”博客文章

但就我们在这里的目的而言,可以说迄今为止没有其他东西能够触及 MapReduce 所实现的规模,甚至在谷歌内部也是如此。考虑到 MapReduce 已经存在了这么长时间,这是一个值得注意的事实;在我们的行业中,14 年就是一个漫长的时代。

从流系统的角度来看,我想要给 MapReduce 留下的主要印象是简单可扩展性。MapReduce 迈出了驯服大规模数据处理的第一步,提供了一个简单而直接的 API,用于构建强大的数据处理流水线,其简约性掩盖了在幕后发生的复杂分布式系统魔术,使这些流水线能够在大规模的廉价硬件集群上运行。

Hadoop

接下来是 Hadoop(图 10-6)。警告:这是我为了集中叙述而大大简化系统影响的情况之一。Hadoop 对我们行业和整个世界的影响无法言喻,它远远超出了我在这里讨论的相对特定的范围。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-6. 时间轴:Hadoop

Hadoop 诞生于 2005 年,当 Doug Cutting 和 Mike Cafarella 决定将 MapReduce 论文中的想法用于构建他们的 Nutch 网络爬虫的分布式版本时。他们已经构建了自己的谷歌分布式文件系统的版本(最初称为 NDFS,后来更名为 HDFS,或者 Hadoop 分布式文件系统),因此在该论文发表后,将 MapReduce 层添加到其上是一个自然的下一步。他们称这个层为 Hadoop。

Hadoop 和 MapReduce 的主要区别在于,Cutting 和 Cafarella 确保 Hadoop 的源代码通过开源方式与世界分享(以及 HDFS 的源代码),作为最终成为 Apache Hadoop 项目的一部分。雅虎聘请 Cutting 帮助将雅虎网络爬虫架构转移到 Hadoop,为该项目增添了额外的有效性和工程能量,从那时起,一个完整的开源数据处理工具生态系统就开始成长。与 MapReduce 一样,其他人已经在其他地方更好地讲述了 Hadoop 的历史;其中一个特别好的参考资料是 Marko Bonaci 的“Hadoop 的历史”,最初计划包括在一本印刷书籍中(图 10-7)。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-7. Marko Bonaci 的“Hadoop 的历史”

我希望你从本节中得到的主要观点是,Hadoop 周围蓬勃发展的开源生态系统对整个行业产生了巨大影响。通过创建一个开放的社区,工程师可以改进和扩展早期 GFS 和 MapReduce 论文中的想法,一个繁荣的生态系统诞生了,产生了许多有用的工具,如 Pig、Hive、HBase、Crunch 等等。这种开放性对于培育我们行业现在存在的多样化思想至关重要,这也是为什么我将 Hadoop 的开源生态系统定位为其对我们今天所知的流处理系统世界的最重要贡献。

Flume

现在我们回到谷歌领地,谈论谷歌内部 MapReduce 的官方继任者:Flume(图 10-8 有时也被称为 FlumeJava,指的是系统的原始 Java 版本,并且不要与 Apache Flume 混淆,后者是一个完全不同的系统,只是碰巧有相同的名称)。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-8. 时间轴:Flume

Flume 项目是由 Craig Chambers 在 2007 年谷歌西雅图办公室开设时创建的。它的动机是解决 MapReduce 的一些固有缺陷,这些缺陷在其成功的最初几年中变得明显。其中许多缺陷围绕着 MapReduce 的严格的 Map→Shuffle→Reduce 结构;尽管简单清晰,但它也带来了一些不利因素:

  • 因为许多用例无法通过单个 MapReduce 的应用来解决,谷歌开始出现了许多定制的“编排系统”,用于协调一系列 MapReduce 作业。这些系统本质上都是为了相同的目的(将多个 MapReduce 作业粘合在一起,创建一个解决复杂问题的连贯管道)。然而,由于它们是独立开发的,它们自然是不兼容的,这是不必要的重复努力的典型例子。

  • 更糟糕的是,有许多情况下,一个清晰的 MapReduce 作业序列会由于 API 的严格结构而引入低效。例如,一个团队可能会编写一个简单地过滤一些元素的 MapReduce 作业;也就是说,一个只有空 reducer 的仅映射作业。接着可能是另一个团队的仅映射作业,对元素进行逐个丰富(又是另一个空 reducer)。然后第二个作业的输出可能最终被最后一个团队的 MapReduce 消费,对数据进行一些分组聚合。这个管道基本上由一个 Map 阶段的单一链条和一个 Reduce 阶段组成,需要通过完全独立的三个作业进行编排,每个作业通过洗牌和输出阶段将数据实现链在一起。但这是假设你想要保持代码库的逻辑和清晰,这导致了最终的缺点…

  • 为了消除这些 MapReduce 中的低效,工程师们开始引入手动优化,这将混淆管道的简单逻辑,增加了维护和调试成本。

Flume 通过提供一个可组合的、高级的 API 来解决这些问题,用于描述数据处理管道,基本上是围绕 Beam 中发现的相同的 PCollection 和 PTransform 概念,如图 10-9 所示。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-9。Flume 中的高级管道(图片来源:Frances Perry)

这些管道在启动时将通过优化器⁵生成一个最优的 MapReduce 作业序列的计划,然后由框架进行编排,如图 10-10 所示。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-10。从逻辑管道到物理执行计划的优化

也许 Flume 可以执行的最重要的自动优化示例是融合(Reuven 在第五章中已经讨论过一些),在融合中,两个逻辑上独立的阶段可以在同一个作业中顺序运行(消费者-生产者融合)或并行运行(同级融合),如图 10-11 所示。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-11。融合优化将连续或并行的操作合并到同一个物理操作中

将两个阶段融合在一起可以消除序列化/反序列化和网络成本,这在处理大量数据的管道中可能是重要的。

另一种自动优化类型是组合器提升(见图 10-12),其机制我们在第七章已经提到,当时我们讨论了增量组合。组合器提升就是简单地应用我们在那一章讨论过的多级组合逻辑:在分组操作之后逻辑上发生的组合操作(例如求和)部分提升到分组之前的阶段(这根据定义需要通过网络进行数据洗牌),以便在分组发生之前进行部分组合。在非常热门的键的情况下,这可以大大减少在网络上传输的数据量,并且还可以更平稳地将最终聚合的负载分布在多台机器上。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-12。组合器提升在消费者端的分组聚合之前对发送端进行部分聚合

由于其更清晰的 API 和自动优化,Flume Java 在 2009 年初在 Google 推出后立即受到欢迎。在这一成功之后,团队发表了题为“Flume Java: Easy, Efficient Data-Parallel Pipelines”的论文(见图 10-13),这本身就是一个了解系统最初存在情况的绝佳资源。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-13。FlumeJava 论文

Flume C++在 2011 年不久后推出,2012 年初,Flume 被引入到 Google 为所有新工程师提供的 Noogler⁶培训中。这标志着 MapReduce 的终结。

自那时起,Flume 已经迁移到不再使用 MapReduce 作为其执行引擎;相反,它使用了一个名为 Dax 的自定义执行引擎,直接构建在框架本身中。通过将 Flume 本身从以前的 Map → Shuffle → Reduce 结构的 MapReduce 的限制中解放出来,Dax 实现了新的优化,例如 Eugene Kirpichov 和 Malo Denielou 在他们的“No shard left behind”博客文章中描述的动态工作再平衡功能(图 10-14)。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-14。“No shard left behind”博客文章

尽管在 Cloud Dataflow 的上下文中讨论,动态工作再平衡(或者在 Google 中俗称的液体分片)会自动将额外的工作从滞后的分片重新平衡到系统中其他空闲的工作者身上,因为他们提前完成了工作。通过随时间动态地重新平衡工作分配,可以更接近于最佳工作分配,甚至比最好的初始分配更接近。它还允许适应工作者池中的变化,其中一个慢速机器可能会延迟作业的完成,但通过将其大部分任务移交给其他工作者来进行补偿。当液体分片在 Google 推出时,它在整个系统中回收了大量资源。

关于 Flume 的最后一点是,它后来还扩展到支持流处理语义。除了批处理的 Dax 后端外,Flume 还扩展为能够在 MillWheel 流处理系统上执行管道(稍后将讨论)。我们在本书中讨论的大多数高级流处理语义概念最初都是在 Flume 中首次应用,然后才逐渐进入 Cloud Dataflow,最终进入 Apache Beam。

总之,在本节中从 Flume 中可以得出的主要观点是引入了“高级管道”的概念,这使得清晰编写的逻辑管道可以进行“自动优化”。这使得可以创建更大更复杂的管道,而无需手动编排或优化,并且同时保持这些管道的代码逻辑清晰。

Storm

接下来是 Apache Storm(图 10-15),这是我们涵盖的第一个真正的流处理系统。Storm 肯定不是存在的第一个流处理系统,但我认为它是第一个在整个行业中得到广泛采用的流处理系统,因此我们在这里更仔细地研究它。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-15。时间轴:Storm

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-16。“Apache Storm 的历史和经验教训”

Storm 是 Nathan Marz 的创意,后来他在一篇名为“Apache Storm 的历史和经验教训”的博客文章中详细记录了其创作历程(图 10-16)。简而言之,Nathan 所在的初创公司 BackType 一直在尝试使用自定义的队列和工作者系统来处理 Twitter 的数据流。他最终得出的结论与几乎十年前的 MapReduce 团队的结论基本相同:他们的代码中实际的数据处理部分只是系统的一小部分,如果有一个框架在幕后完成所有分布式系统的繁重工作,那么构建实时数据处理管道将会更容易。于是 Storm 诞生了。

与我们迄今为止谈到的其他系统相比,Storm 的有趣之处在于,团队选择放宽了所有其他系统中都有的强一致性保证,以提供更低的延迟。通过将最多一次或至少一次的语义与每条记录的处理和无集成(即无一致)的持久状态概念相结合,Storm 能够以比执行数据批处理并保证一次性正确性的系统更低的延迟提供结果。对于某种类型的用例来说,这是一个非常合理的权衡。

不幸的是,很快就清楚地看到,人们确实希望既能快速得到答案,又能同时获得低延迟的结果和最终的正确性。但是仅凭 Storm 是不可能做到这一点的。于是 Lambda 架构应运而生。

鉴于 Storm 的局限性,精明的工程师开始在强一致的 Hadoop 批处理管道旁边运行一个弱一致的 Storm 流处理管道。前者产生低延迟、不精确的结果,而后者产生高延迟、精确的结果,然后这两者最终会以某种方式合并在一起,以提供单一的低延迟、最终一致的输出视图。我们在第一章中了解到 Lambda 架构是 Marz 的另一个创意,详细内容在他的帖子中介绍“如何打败 CAP 定理”(图 10-17)。⁷

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-17。“如何打败 CAP 定理”

我已经花了相当多的时间批评 Lambda 架构的缺点,所以我不会在这里再多加赘述。但我会重申一点:尽管成本高昂,带来了很多麻烦,Lambda 架构仍然变得非常流行,仅仅是因为它满足了许多企业本来很难满足的关键需求:从数据处理管道中获得低延迟但最终正确的结果。

从流处理系统的演变角度来看,我认为 Storm 首次为大众带来了低延迟数据处理。然而,这是以弱一致性为代价的,这反过来导致了 Lambda 架构的兴起,以及随之而来的双管道黑暗时期。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-18。Heron paper

但是,夸张的戏剧性除外,Storm 是该行业首次尝试低延迟数据处理的系统,这一影响在今天对流处理系统的广泛兴趣和采用中得到体现。

在继续之前,也值得一提的是 Heron。2015 年,Twitter(全球已知最大的 Storm 用户,最初培育了 Storm 项目的公司)宣布放弃 Storm 执行引擎,转而采用公司内部开发的新系统 Heron。Heron 旨在解决困扰 Storm 的一些性能和可维护性问题,同时保持 API 兼容性,详细内容在公司的论文中介绍“Twitter Heron: Stream Processing at Scale”(图 10-18)。Heron 本身随后被开源(治理权转移到了自己独立的基金会,而不是像 Apache 那样的现有基金会)。鉴于 Storm 的持续发展,现在有两个竞争性的 Storm 变种。事情最终会如何发展,任何人都无法预测,但观察将会是令人兴奋的。

Spark

继续前进,我们现在来到 Apache Spark(图 10-19)。这是另一个部分,我将通过专注于其在流处理领域的贡献来大大简化 Spark 对行业的总体影响。提前道歉。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-19。时间轴:Spark

Spark 最初是在 2009 年左右在加州大学伯克利分校的著名 AMPLab 开始的。最初推动 Spark 声名鹊起的是其能够在大多数情况下完全在内存中执行管道的大部分计算,直到最后才触及磁盘。工程师们通过弹性分布式数据集(RDD)的概念实现了这一点,基本上捕获了管道中任何给定点的数据完整谱系,允许根据需要在机器故障时重新计算中间结果,假设 a)您的输入始终可以重放,b)您的计算是确定性的。对于许多使用案例,这些前提条件是真实的,或者至少在性能方面相对真实,用户能够实现与标准 Hadoop 作业相比的巨大性能提升。从那时起,Spark 逐渐建立起其作为 Hadoop 事实上的继任者的声誉。

Spark 创建几年后,当时是 AMPLab 的研究生的 Tathagata Das 意识到:嘿,我们有这个快速的批处理引擎,如果我们将多个批处理依次运行,并使用它来处理流数据怎么样?从这点洞察力出发,Spark Streaming 诞生了。

Spark Streaming 真正了不起的地方在于:由于在幕后支持一致性批处理引擎,世界现在拥有了一个流处理引擎,可以在不需要额外批处理作业的情况下自行提供正确的结果。换句话说,根据正确的使用案例,您可以放弃 Lambda 架构系统,只使用 Spark Streaming。万岁 Spark Streaming!

这里的一个主要限制是“正确的使用案例”部分。 Spark Streaming 的原始版本(1.x 变体)的一个很大的缺点是它只支持特定类型的流处理:处理时间窗口。因此,任何关心事件时间、需要处理延迟数据等的使用案例,都需要用户编写大量额外的代码来实现某种形式的事件时间处理,以覆盖 Spark 的处理时间窗口架构。这意味着 Spark Streaming 最适合于顺序数据或事件时间不可知的计算。正如我在本书中一再强调的那样,这些条件在处理当今常见的大规模用户中心数据集时并不如你希望的那样普遍。

围绕 Spark Streaming 的另一个有趣的争议是“微批处理与真正的流处理”的老问题。因为 Spark Streaming 建立在批处理引擎的小型重复运行的想法之上,批评者声称 Spark Streaming 不是真正的流处理引擎,因为系统中的进展受到每个批处理的全局障碍的限制。这里有一定的真相。尽管真正的流处理引擎几乎总是利用某种形式的批处理或捆绑以提高吞吐量,但它们有更高的灵活性,可以在更细粒度的级别进行,甚至可以到达单个键。微批处理架构在全局级别处理捆绑意味着几乎不可能同时具有低的每个键延迟和高的整体吞吐量,有许多基准测试表明这基本属实。但与此同时,以分钟或多秒为单位的延迟仍然相当不错。而且很少有使用案例要求确切的正确性和如此严格的延迟能力。因此,在某种程度上,Spark 最初定位的受众是绝对正确的;大多数人都属于这一类别。但这并没有阻止竞争对手将其视为该平台的巨大劣势。就我个人而言,在大多数情况下,我认为这只是一个小小的抱怨。

除了缺点之外,Spark Streaming 是流处理的一个分水岭时刻:首个公开可用的大规模流处理引擎,同时也能提供批处理系统的正确性保证。当然,正如之前提到的,流处理只是 Spark 整体成功故事的一小部分,它在迭代处理和机器学习领域做出了重要贡献,具有本地 SQL 集成,以及前面提到的快速内存性能等。

如果你对原始 Spark 1.x 架构的细节感兴趣,我强烈推荐马泰·扎哈里亚的论文,“大规模集群上快速通用数据处理的架构”(图 10-20)。这是 113 页的 Spark 精华,非常值得投资。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-20. Spark 论文

截至目前,Spark 的 2.x 变体正在大大扩展 Spark Streaming 的语义能力,同时试图简化一些更复杂的部分。而且,Spark 甚至正在推动一种新的真正的流处理架构,试图关闭微批处理的反对论点。但是当它首次出现时,Spark 带来的重要贡献是,它是第一个公开可用的具有强一致性语义的流处理引擎,尽管只在有序数据或事件时间不可知的计算中。

MillWheel

接下来我们将讨论 MillWheel,这是我在 2008 年加入谷歌后在我的 20%工作时间中首次涉足的项目,后来在 2010 年全职加入了该团队(图 10-21)。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-21. 时间轴:MillWheel

MillWheel 是谷歌最初的通用流处理架构,该项目是由保罗·诺德斯特罗姆在谷歌西雅图办公室开设之际创建的。MillWheel 在谷歌内部的成功长期以来一直集中在能够提供无界、无序数据的低延迟、强一致性处理能力上。在本书的过程中,我们已经看到了 MillWheel 中几乎所有组件的组合,使这一切成为可能:

  • Reuven 在第五章讨论了仅一次保证。仅一次保证对于正确性至关重要。

  • 在第七章中,我们讨论了持久状态,其强一致性变体为在不可靠硬件上执行长时间运行的流水线维护正确性提供了基础。

  • Slava 在第三章谈到了水印。水印为推理输入数据的混乱提供了基础。

  • 在第七章中,我们还讨论了持久定时器,它提供了水印和流水线业务逻辑之间的必要联系。

也许有些令人惊讶的是,MillWheel 项目最初并不关注正确性。保罗最初的愿景更接近 Storm 后来所倡导的:低延迟数据处理与弱一致性。最初的 MillWheel 客户,一个是在搜索数据上构建会话,另一个是在搜索查询上执行异常检测(MillWheel 论文中的 Zeitgeist 示例),他们驱使项目朝着正确性的方向发展。两者都对一致的结果有强烈需求:会话用于推断用户行为,异常检测用于推断搜索查询的趋势;如果它们提供的数据不可靠,它们的效用将显著降低。因此,MillWheel 的方向被引向了强一致性。

MillWheel 支持无序处理,这是强大流处理的另一个核心方面,也是 MillWheel 的常见特点,也是由客户的需求推动的。作为真正的流式使用案例,Zeitgeist 管道希望生成一个输出流,用于识别搜索查询流量中的异常情况,仅限异常情况(即,对于其分析的消费者来说,轮询等待标记异常的材料化视图输出表中的所有键是不切实际的;消费者只在特定键发生异常时需要直接信号)。对于异常的峰值(即查询流量的增加),这相对简单:当给定查询的计数超过模型对该查询的预期值的一定统计显著量时,可以发出异常信号。但对于异常的下降(即查询流量的减少),问题就有点棘手了。仅仅看到给定搜索词的查询数量减少是不够的,因为在任何时间段内,观察到的数量总是从零开始。在这种情况下,您真正需要做的是等到您有理由相信您已经看到了足够代表性的输入部分,然后再与您的模型进行比较。

Zeitgeist 管道最初尝试在寻找下降的分析逻辑之前插入处理时间延迟来实现这一点。当数据按顺序到达时,这种方法可以工作得相当不错,但管道的作者发现数据有时会被大大延迟,因此到达时会出现严重的无序。在这些情况下,他们使用的处理时间延迟是不够的,因为管道会错误地报告一大堆实际上并不存在的下降异常。他们真正需要的是一种等待直到输入变得完整的方法。

因此,水印是出于对无序数据的输入完整性的推理的需要而产生的。正如 Slava 在第三章中所描述的,基本思想是跟踪系统提供的输入的已知进度,使用给定类型的数据源提供的尽可能多或尽可能少的数据,构建一个可以用来量化输入完整性的进度指标。对于像静态分区的 Kafka 主题这样的简单输入源,每个分区按照递增的事件时间顺序写入(例如,通过实时记录事件的 Web 前端),您可以计算出一个完美的水印。对于像动态输入日志这样的更复杂的输入源,启发式可能是您能做的最好的。但无论如何,水印相对于使用处理时间来推理事件时间完整性的替代方法具有明显的优势,经验表明,后者在试图导航开罗的街道时,效果与使用伦敦地图一样好。

因此,由于客户的需求,MillWheel 最终成为了一个具有支持无序数据的强大流处理功能的系统。因此,题为“MillWheel: Fault-Tolerant Stream Processing at Internet Scale”⁸(图 10-22)的论文大部分时间都在讨论在这样的系统中提供正确性的困难,一致性保证和水印是主要关注的领域。如果您对这个主题感兴趣,这篇论文是非常值得一读的。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-22。MillWheel 论文

在 MillWheel 论文发表后不久,MillWheel 被集成为 Flume 的替代流后端,通常一起称为 Streaming Flume。如今在 Google 内部,MillWheel 正在被其后继者 Windmill 所取代(也是 Cloud Dataflow 的执行引擎,稍后将讨论),这是一个从头开始的重写,融合了 MillWheel 的所有最佳想法,以及一些新的想法,如更好的调度和分发,以及用户和系统代码的更清晰分离。

然而,对于 MillWheel 来说,最重要的是前面列出的四个概念(仅一次、持久状态、水印、持久定时器)共同为一个系统提供了基础,这个系统最终能够实现流处理的真正承诺:在不可靠的通用硬件上对无序数据进行稳健、低延迟的处理。

Kafka

现在我们来谈谈 Kafka(图 10-23)。Kafka 在本章讨论的系统中是独一无二的,因为它不是一个数据处理框架,而是一个传输层。然而,毫无疑问,Kafka 在推动流处理方面发挥了最有影响力的作用。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-23。时间线:Kafka

如果你对它不熟悉,Kafka 本质上是一个持久的流传输,实现为一组分区日志。它最初是在 LinkedIn 由 Neha Narkhede 和 Jay Kreps 等行业杰出人士开发的,它的荣誉包括以下内容:

  • 提供了一个清晰的持久性模型,将批处理世界中温暖的持久、可重放的输入源的感觉打包到了一个流处理友好的接口中。

  • 在生产者和消费者之间提供一个弹性的隔离层

  • 体现了我们在第六章讨论的流和表之间的关系,揭示了一种关于数据处理的基本思维方式,同时提供了与丰富而悠久的数据库世界的概念联系。

  • 作为上述所有内容的副作用,Kafka 不仅成为了行业中大多数流处理安装的基石,还促进了流处理作为数据库和微服务运动。

他们一定是起得很早。

在这些荣誉中,有两个对我来说最突出。第一个是将持久性和可重放性应用于流数据。在 Kafka 之前,大多数流处理系统使用某种短暂的排队系统,如 Rabbit MQ 或甚至普通的 TCP 套接字来发送数据。持久性可能在生产者的上游备份中提供到一定程度(即,上游数据的生产者在下游工作人员崩溃时能够重新发送),但往往上游数据也是临时存储的。大多数方法完全忽略了在后续回填或用于原型设计、开发和回归测试时能够重放输入数据的想法。

Kafka 改变了一切。通过将数据库世界中经受考验的持久日志的概念应用到流处理领域,Kafka 让我们重新获得了从 Hadoop/批处理世界中常见的持久输入源到当时流处理世界中普遍存在的短暂源时失去的安全感和安全性。具有耐用性和可重放性,流处理又迈出了一步,成为了对昔日临时批处理系统的强大、可靠替代品。

作为流处理系统开发人员,Kafka 的耐用性和可重放性特性对行业产生的影响的一个更有趣的可见产物是,今天有多少流处理引擎在根本上依赖于可重放性来提供端到端的一次性保证。可重放性是 Apex、Flink、Kafka Streams、Spark 和 Storm 中端到端一次性保证的基础。在执行一次性模式时,这些系统中的每一个都假定/要求输入数据源能够倒带并重放直到最近的检查点。当与不能提供这种能力的输入源一起使用时(即使源可以通过上游备份保证可靠交付),端到端的一次性语义就会崩溃。对可重放性(以及相关的耐用性)的广泛依赖证明了这些特性在整个行业中产生的影响之大。

Kafka 简历中的第二个值得注意的亮点是流和表理论的普及。我们在整个第六章中讨论了流和表,以及第八章和第九章的大部分内容。而且理由充分。流和表构成了数据处理的基础,无论是 MapReduce 系统家族、庞大的 SQL 数据库系统还是其他任何系统。并非所有的数据处理方法都需要直接使用流和表的术语,但从概念上讲,它们都是如此操作的。作为这些系统的用户和开发人员,了解我们所有系统都建立在的核心基本概念是非常有价值的。我们都应该对 Kafka 社区的人们感激不尽,他们帮助更广泛地了解了流和表的思维方式。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-24。我❤日志

如果您想了解更多关于 Kafka 及其基础的信息,《我❤日志》(O’Reilly;图 10-24)是杰伊·克雷普斯的一本优秀资源。¹⁰ 此外,正如在第六章中引用的那样,克雷普斯和马丁·克莱普曼有一对文章(图 10-25),我强烈推荐阅读,以了解流和表理论的起源。

Kafka 对流处理领域做出了巨大的贡献,可以说比其他任何单一系统都要多。特别是,将耐用性和可重放性应用于输入和输出流在帮助将流处理从近似工具的小众领域推向了一般数据处理的大联盟中发挥了重要作用。此外,由 Kafka 社区推广的流和表的理论为我们提供了对数据处理基本机制的深刻洞察。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-25。马丁的文章(左)和杰伊的文章(右)

Cloud Dataflow

云数据流(图 10-26)是谷歌的全面托管的基于云的数据处理服务。 Dataflow 于 2015 年 8 月面向世界推出。它的构建意图是将十多年的 MapReduce、Flume 和 MillWheel 构建经验打包成一个无服务器的云体验。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-26。时间轴:Cloud Dataflow

尽管 Cloud Dataflow 的无服务器方面可能是从系统角度最具挑战性和区分性的因素,但我想在这里讨论的对流系统的主要贡献是其统一的批处理加流处理编程模型。这就是我们在大部分书中讨论的所有转换、窗口、水印、触发器和累积的好处。当然,它们都包含了关于什么/在哪里/何时/如何思考问题的方式。

该模型最初出现在 Flume 中,当时我们试图将 MillWheel 中强大的无序处理支持纳入 Flume 提供的更高级别的编程模型中。随后,Flume 在谷歌内部可用的综合批处理和流处理方法成为 Dataflow 中包含的完全统一模型的基础。

统一模型的关键洞察力——当时我们甚至没有真正意识到的全部内容——是,在幕后,批处理和流处理实际上并没有那么不同:它们只是流和表主题的微小变化。正如我们在第六章中所学到的,主要区别实际上归结为能够逐渐将表触发为流;其他一切在概念上都是相同的。¹¹通过利用这两种方法的共同点,可以提供一个几乎无缝的单一体验,适用于两个世界。这是在使流处理更易于访问方面迈出的一大步。

除了利用批处理和流处理之间的共同点,我们还深入研究了多年来在谷歌遇到的各种用例,并利用这些信息来指导统一模型的组成部分。我们针对的关键方面包括以下内容:

  • 不对齐的事件时间窗口,例如会话,提供了对无序数据进行简洁表达强大分析构造并将其应用的能力。

  • 自定义窗口支持,因为一个(甚至三个或四个)大小很少适合所有情况。

  • 灵活的触发累积模式,提供了塑造数据流通过管道的方式,以匹配给定用例的正确性、延迟和成本需求的能力。

  • 使用水印来推断输入完整性,这对于异常跌落检测等用例至关重要,其中分析取决于数据的缺失。

  • 对底层执行环境的逻辑抽象,无论是批处理、微批处理还是流处理,都提供了执行引擎的选择灵活性,并避免系统级构造(如微批处理大小)渗入逻辑 API。

总的来说,这些方面提供了灵活性,以平衡正确性、延迟和成本之间的紧张关系,使该模型能够应用于广泛的用例。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-27。Dataflow 模型论文

考虑到您刚刚阅读了一本涵盖 Dataflow/Beam 模型细节的整本书,因此在这里重温这些概念没有太大意义。但是,如果您想对事情有稍微更学术化的看法,并且对之前提到的一些激励用例有一个很好的概述,您可能会发现我们 2015 年的Dataflow 模型论文有价值(图 10-27)。

尽管 Cloud Dataflow 还有许多其他引人注目的方面,但从本章的角度来看,其重要贡献是其统一的批处理加流处理编程模型。它为解决无界、无序数据集提供了全面的方法,并以一种灵活的方式进行权衡,以满足给定用例的正确性、延迟和成本之间的紧张关系。

Flink

Flink(图 10-28)于 2015 年突然出现,迅速从一个几乎没有人听说过的系统转变为流处理世界的强大力量之一。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-28。时间轴:Flink

Flink 崭露头角的两个主要原因是:

  • 快速采用 Dataflow/Beam 编程模型,使其成为当时全球最具语义能力的完全开源流处理系统。

  • 随后不久,Flink 实现了高效的快照(源自 Chandy 和 Lamport 原始论文“分布式快照:确定分布式系统的全局状态” [图 10-29]的研究),为其提供了所需的强一致性保证以确保正确性。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-29。Chandy-Lamport 快照

Reuven 在第五章简要介绍了 Flink 的一致性机制,但要重申的是,基本思想是定期障碍在系统中的工作人员之间的通信路径上传播。这些障碍充当各个分布式工作人员之间的数据生产者与消费者之间的对齐机制。当消费者在其所有输入通道(即来自其所有上游生产者)上接收到给定的障碍时,它会为所有活动键检查点其当前进度,然后可以安全地确认处理障碍之前的所有数据。通过调整障碍通过系统发送的频率,可以调整检查点的频率,从而在增加延迟(由于需要在检查点时间点上实现副作用)的情况下换取更高的吞吐量。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-30。“扩展 Yahoo!流式基准”

当时,Flink 具有提供精确一次语义以及本地支持事件时间处理的能力是一个巨大的进步。但直到 Jamie Grier 发表了题为“扩展 Yahoo!流式基准”(图 10-30)的文章,才清楚地表明了 Flink 的性能。在那篇文章中,Jamie 描述了两个令人印象深刻的成就:

  1. 构建了一个原型 Flink 流水线,其准确性超过了 Twitter 现有的 Storm 流水线的 1%成本。

  2. 更新雅虎!流式基准,显示 Flink(具有精确一次)的吞吐量是 Storm(没有精确一次)的 7.5 倍。此外,由于网络饱和,Flink 的性能受到限制;消除网络瓶颈使 Flink 的吞吐量几乎是 Storm 的 40 倍。

从那时起,许多其他项目(特别是 Storm 和 Apex)都采用了相同类型的一致性机制。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-31。“保存点:时光倒流”

通过添加快照机制,Flink 获得了端到端精确一次所需的强一致性。但值得赞扬的是,Flink 更进一步利用其快照的全局性质,提供了从过去任何时间点重新启动整个流水线的能力,这一功能称为保存点(由 Fabian Hueske 和 Michael Winters 在“保存点:时光倒流”一文中描述 [图 10-31])。保存点功能将 Kafka 应用于流式传输层的持久重放的温暖特性扩展到整个流水线的广度。长时间运行的流式流水线随时间的优雅演变仍然是该领域的一个重要开放问题,有很大的改进空间。但截至目前,Flink 的保存点功能是朝着正确方向迈出的第一步巨大进展之一,而且在整个行业中仍然是独一无二的。

如果您对了解 Flink 快照和保存点的系统构造感兴趣,可以阅读论文“Apache Flink 中的状态管理”(图 10-32)对实现进行了详细讨论。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-32。“Apache Flink 中的状态管理”

除了保存点之外,Flink 社区继续创新,包括为大规模分布式流处理引擎推出了第一个实用的流式 SQL API,正如我们在第八章中讨论的那样。

总之,Flink 迅速崛起为流处理巨头主要归功于其方法的三个特点:1)吸收了行业中最好的现有思想(例如,成为 Dataflow/Beam 模型的第一个开源采用者),2)带来了自己的创新,推动了技术的发展(例如,通过快照和保存点实现强一致性,流式 SQL),以及 3)快速且反复地做这两件事。再加上所有这些都是在开源中完成的,您就可以看到为什么 Flink 一直在整个行业中不断提高流处理的标准。

Beam

我们要讨论的最后一个系统是 Apache Beam(图 10-33)。Beam 与本章中的大多数其他系统不同之处在于,它主要是一个编程模型、API 和可移植性层,而不是具有执行引擎的完整堆栈。但这正是重点所在:正如 SQL 作为声明式数据处理的通用语言,Beam 旨在成为编程式数据处理的通用语言。让我们来探讨一下。

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-33. 时间轴:Beam

具体来说,Beam 由多个组件组成:

  • 一个统一的批处理加流式编程模型,继承自其起源地 Cloud Dataflow,我们在本书的大部分内容中讨论了其细节。该模型独立于任何语言实现或运行时系统。您可以将其视为 Beam 对 SQL 的关系代数的等价物。

  • 一组SDKs(软件开发工具包),实现了该模型,允许以特定语言的习惯方式表达流水线。Beam 目前提供了 Java、Python 和 Go 的 SDKs。您可以将这些视为 Beam 对 SQL 语言的编程等价物。

  • 一组DSLs(领域特定语言),建立在 SDKs 之上,提供专门的接口,以独特的方式捕捉模型的部分内容。而 SDKs 需要展示模型的所有方面,DSLs 只能暴露那些对特定领域有意义的部分。Beam 目前提供了一个名为 Scio 的 Scala DSL 和一个 SQL DSL,两者都是建立在现有的 Java SDK 之上的。

  • 一组可以执行 Beam 流水线的运行器。运行器以 Beam SDK 术语描述的逻辑流水线,并尽可能高效地将其转换为物理流水线,然后执行。目前存在的 Beam 运行器包括 Apex、Flink、Spark 和 Google Cloud Dataflow。用 SQL 术语来说,您可以将这些运行器视为 Beam 对各种 SQL 数据库实现的等价物,如 Postgres、MySQL、Oracle 等。

Beam 的核心愿景建立在其作为可移植性层的价值上,而在这个领域中更具吸引力的特性之一是其计划支持完全跨语言的可移植性。尽管尚未完全完成(但即将到来),计划是让 Beam 在 SDK 和运行器之间提供足够高效的抽象层,以实现完全的跨产品 SDK × runner 匹配。在这样的世界中,使用 JavaScript SDK 编写的流水线可以在 Haskell 运行器上无缝执行,即使 Haskell 运行器本身没有本地执行 JavaScript 代码的能力。

作为一个抽象层,Beam 相对于其 runners 的定位对于确保 Beam 实际为社区带来价值至关重要,而不是引入一个不必要的抽象层。关键在于,Beam 的目标是永远不只是其 runners 中发现的特性的交集(最低公共分母)或并集(厨房水槽)。相反,它的目标是仅包括整个数据处理社区中最好的想法。这允许在两个维度上进行创新:

Beam 中的创新

流式系统:第九章到第十章,大数据,数据库,mysql,redis

图 10-34。强大和模块化的 I/O

Beam 可能会包括并非所有 runners 最初都支持的运行时特性的 API 支持。这没关系。随着时间的推移,我们期望许多 runners 将在未来版本中纳入这些特性;那些不这样做的将成为需要这些特性的用例的不太吸引人的 runner 选择。

这里的一个例子是 Beam 的 SplittableDoFn API,用于编写可组合的可伸缩源(由 Eugene Kirpichov 在他的文章“在 Apache Beam 中使用 Splittable DoFn 编写强大和模块化的 I/O 连接器”中描述)。它既独特又非常强大,但对于一些更具创新性的部分,比如动态工作重新平衡,目前还没有得到所有 runners 的广泛支持。然而,考虑到这些特性带来的价值,我们预计随着时间的推移,情况将会改变。

runners 中的创新

Runners 可能会引入运行时特性,而 Beam 最初并不提供 API 支持。这没关系。随着时间的推移,已经证明其有用性的运行时特性将被纳入 Beam 的 API 支持中。

这里的一个例子是 Flink 中的状态快照机制,或者之前我们讨论过的 savepoints。Flink 仍然是唯一公开可用的流处理系统,以这种方式支持快照,但 Beam 中有一个提案提供围绕快照的 API,因为我们认为随着时间的推移,管道的优雅演进是一个重要的特性,将在整个行业中具有价值。如果我们今天神奇地推出这样的 API,Flink 将是唯一支持它的运行时系统。但同样,这没关系。这里的重点是,随着这些特性的价值变得清晰,整个行业将随着时间的推移开始赶上。¹²这对每个人都更好。

通过鼓励 Beam 本身以及 runners 内的创新,我们希望随着时间的推移以更快的速度推动整个行业的能力,而不会在这一过程中接受妥协。通过实现跨运行时执行引擎的可移植性的承诺,我们希望建立 Beam 作为表达编程数据处理流水线的通用语言,类似于 SQL 如今作为声明式数据处理的通用货币存在。这是一个雄心勃勃的目标,截至目前,我们离完全实现它还有一段距离,但我们迄今为止也走了很长一段路。

总结

我们刚刚快速浏览了十五年来数据处理技术的进步,重点关注了使流式系统成为今天的样子的贡献。最后总结一下,每个系统的主要要点是:

MapReduce - 可伸缩性和简单性

通过在强大且可伸缩的执行引擎之上提供一组简单的数据处理抽象,MapReduce 使数据工程师能够专注于其数据处理需求的业务逻辑,而不是构建分布式系统的棘手细节,以使其能够抵御商品硬件的故障模式。

Hadoop - 开源生态系统

通过在 MapReduce 的思想基础上构建开源平台,Hadoop 创造了一个蓬勃发展的生态系统,远远超出了其前身的范围,并允许大量新的想法蓬勃发展。

Flume - 流水线,优化

通过将逻辑管道操作的高级概念与智能优化器相结合,Flume 使得编写干净、可维护的管道成为可能,其能力超越了 Map→Shuffle→Reduce 的 MapReduce 的限制,而又不牺牲通过手工调优获得的性能。

Storm-低延迟与弱一致性

通过牺牲结果的正确性以换取延迟的降低,Storm 将流处理带给了大众,并引领了 Lambda 架构的时代,其中弱一致性的流处理引擎与强一致性的批处理系统并行运行,实现了低延迟、最终一致的真正商业目标。

Spark-强一致性

通过利用强一致性批处理引擎的重复运行来提供无界数据集的连续处理,Spark Streaming 证明了在有序数据集中至少可以同时具有正确性和低延迟的结果是可能的。

MillWheel-无序处理

通过将强一致性和精确一次处理与水印和定时器等关于时间的推理工具相结合,MillWheel 征服了对无序数据进行强大流处理的挑战。

Kafka-持久流、流和表

通过将持久日志的概念应用于流传输问题,Kafka 重新带回了持久性流传输的温暖、踏实的感觉,这是由于像 RabbitMQ 和 TCP 套接字这样的短暂流传输而失去的。并通过推广流和表理论的思想,它帮助阐明了数据处理的概念基础。

Cloud Dataflow-统一批处理加流处理

通过将 MillWheel 的无序流处理概念与 Flume 的逻辑、自动可优化的管道相融合,Cloud Dataflow 提供了一个统一的批处理加流处理数据模型,提供了灵活性,以平衡正确性、延迟和成本之间的紧张关系,以适应任何给定的用例。

Flink-开源流处理创新者

通过迅速将无序处理的能力带到开源世界,并将其与分布式快照和相关的保存点功能等创新相结合,Flink 提高了开源流处理的标准,并帮助引领了行业内流处理创新的潮流。

Beam-可移植性

通过提供一个强大的抽象层,结合了行业内最佳想法的 Beam 提供了一个可移植性层,被定位为与 SQL 提供的声明性共同语言在编程上等效的,同时也鼓励行业内创新思想的采纳。

可以肯定的是,我在这里突出的这 10 个项目及其成就的抽样远远不能涵盖导致行业发展到今天的全部历史。但它们对我来说是重要和值得注意的里程碑,它们共同描绘了过去十五年中流处理的演变的信息图景。自 MapReduce 的早期以来,我们已经走了很长的路,沿途经历了许多起伏、曲折和转折。即便如此,在流系统领域仍然存在许多未解决的问题。我很期待未来会带来什么。

¹这意味着我跳过了关于流处理的大量学术文献,因为那是它的起源。如果你真的对这个话题的学术论文很感兴趣,可以从“数据流模型”论文的参考文献开始,然后往回看。你应该能够很容易地找到你的方向。

² 当然,MapReduce 本身建立在许多早已知名的想法之上,甚至在 MapReduce 论文中明确说明了这一点。这并不改变 MapReduce 将这些想法(以及它自己的一些想法)结合起来,创造出一个实际解决重要且新兴问题的系统,比以往任何人都做得更好,并且激发了后来的数据处理系统的世代。

³ 明确地说,谷歌当时绝对不是唯一一家在这个规模上解决数据处理问题的公司。谷歌只是第一代尝试解决大规模数据处理问题的众多公司之一。

⁴ 明确地说,MapReduce 实际上是建立在谷歌文件系统 GFS 之上的,GFS 本身解决了特定子集的可伸缩性和容错性问题。

⁵ 不完全像数据库世界长期使用的查询优化器。

⁶ Noogler == 新人 + Googler == Google 的新员工

⁷ 顺便说一句,我还强烈推荐阅读 Martin Kleppmann 的《CAP 定理批评》(http://bit.ly/2ybJlnt),对 CAP 定理本身的缺点进行了很好的分析,以及更有原则的替代方法来看待同样的问题。

⁸ 值得一提的是,这本书主要由 Sam McVeety 撰写,Reuven 提供帮助,其他作者也有一些输入;我们不应该按字母顺序排列作者名单,因为每个人总是假设我是主要作者,即使我并不是。

⁹ Kafka Streams 和现在的 KSQL 当然正在改变这一点,但这些都是相对较新的发展,我将主要关注过去的 Kafka。

¹⁰ 虽然我推荐这本书作为最全面和连贯的资源,但如果你在 O’Reilly 的网站上搜索 Kreps 的文章,你也可以找到其中的许多内容。抱歉,Jay…

¹¹ 就像许多广泛的概括一样,这个概括在特定的背景下是正确的,但掩盖了现实的基本复杂性。正如我在第一章中所暗示的,批处理系统在优化有界数据集的数据处理管道的成本和运行时间方面做出了很大的努力,而流处理引擎尚未尝试复制。暗示现代批处理和流处理系统只在一个小方面上有所不同是一个相当简化的说法,在纯粹概念之外的任何领域都是如此。

¹² 这里还有一个值得注意的微妙之处:即使运行器采用了新的语义并勾选了功能复选框,也不能盲目选择任何运行器并获得相同的体验。这是因为运行器本身在运行时和操作特性上仍然可能存在很大的差异。即使两个给定的运行器在 Beam 模型中实现了相同的语义特性,它们在运行时执行这些特性的方式通常也是非常不同的。因此,在构建 Beam 管道时,重要的是要对各种运行器进行功课,以确保选择最适合您用例的运行平台。文章来源地址https://www.toymoban.com/news/detail-816198.html

到了这里,关于流式系统:第九章到第十章的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • UCB Data100:数据科学的原理和技巧:第一章到第五章

    原文:Introduction 译者:飞龙 协议:CC BY-NC-SA 4.0 学习成果 了解 Data 100 的总体目标 了解数据科学生命周期的阶段 数据科学是一个跨学科领域,具有各种应用,并且在解决具有挑战性的社会问题方面具有巨大潜力。通过建立数据科学技能,您可以赋予自己参与和引领塑造您的生

    2024年01月22日
    浏览(73)
  • UCB Data100:数据科学的原理和技巧:第十三章到第十五章

    原文:Gradient Descent 译者:飞龙 协议:CC BY-NC-SA 4.0 学习成果 优化复杂模型 识别直接微积分或几何论证无法帮助解决损失函数的情况 应用梯度下降进行数值优化 到目前为止,我们已经非常熟悉选择模型和相应损失函数的过程,并通过选择最小化损失函数的 θ theta θ 的值来优

    2024年02月02日
    浏览(46)
  • UCB Data100:数据科学的原理和技巧:第二十一章到第二十六章

    原文:SQL II 译者:飞龙 协议:CC BY-NC-SA 4.0 学习成果 介绍过滤组的能力 在 SQL 中执行数据清理和文本操作 跨表连接数据 在本讲座中,我们将继续上次的工作,介绍一些高级的 SQL 语法。 首先,让我们加载上一堂课的数据库。 HAVING 通过在每个组的所有行上应用一些条件来过

    2024年01月21日
    浏览(178)
  • ChatGPT 之言情作家:第一章到第十一章

    原文:THE CHATGPT ROMANCE AUTHOR 译者:飞龙 协议:CC BY-NC-SA 4.0 和你一样,我喜欢写言情小说,在过去的二十年里,我对流派商业小说中故事构思和作者创业的力量产生了浓厚的兴趣。 我的目标很简单。我想了解如何将故事构思应用到塑造一个引人入胜的商业小说故事中,以吸引

    2024年01月19日
    浏览(66)
  • 使用 Python 和 Pygame 制作游戏:第一章到第五章

    原文: inventwithpython.com/pygame/chapter1.html 译者:飞龙 协议:CC BY-NC-SA 4.0 在阅读本书之前,如果您了解一些 Python 编程知识(或者知道如何使用 Python 之外的其他语言进行编程),可能会有所帮助;但是即使您没有,您仍然可以阅读本书。编程并不像人们想象的那么难。如果您遇

    2024年01月17日
    浏览(82)
  • 面向企业的 ChatGPT 究极手册:第五章到第六章

    原文:Ultimate ChatGPT Handbook for Enterprises 译者:飞龙 协议:CC BY-NC-SA 4.0 回顾我们之前的讨论,我们已经深入探讨了 ChatGPT 启用的人工智能能力,见于*第二章,CapabilityGPT – 一个 ChatGPT 的企业人工智能能力框架 ,并且在 第三章,ChatGPT 对企业的影响 中审视了它们对企业角色的

    2024年01月19日
    浏览(74)
  • 《Linux操作系统编程》第九章 数据查找和筛选工具 : 了解流编辑器sed和报表生成器awk的简单使用

    🌷🍁 博主 libin9iOak带您 Go to New World.✨🍁 🦄 个人主页——libin9iOak的博客🎐 🐳 《面试题大全》 文章图文并茂🦕生动形象🦖简单易学!欢迎大家来踩踩~🌺 🌊 《IDEA开发秘籍》学会IDEA常用操作,工作效率翻倍~💐 🪁🍁 希望本文能够给您带来一定的帮助🌸文章粗浅,敬

    2024年02月12日
    浏览(54)
  • ChatGPT 与生成式 AI 的崛起:第二十六章到第三十三章

    原文:Rise of Generative AI and ChatGPT 译者:飞龙 协议:CC BY-NC-SA 4.0 恐怖分子、罪犯、警察、国防、执法机构、工程师、作家和学生等都在使用 ChatGPT,这是来自 OpenAI 的强大自然语言人工智能工具,作为他们日常工作的重要组成部分。自去年 11 月底发布以来,这种生成式人工智

    2024年01月24日
    浏览(280)
  • 数据结构第九章

    (1)顺序表的查找          1)顺序表查找的结构 顺序查找的过程:从表中最后一个记录开始,逐个进行记录的和给定值的比较。(也就是说,在查找到时候从最后一个元素开始查找,在这个表中位置为0的位置空着,留给你要查找的元素) 在顺序表的查找中,需要

    2024年01月21日
    浏览(42)
  • 斯坦福 Stats60:21 世纪的统计学:第十五章到第十八章

    原文: statsthinking21.github.io/statsthinking21-core-site/comparing-means.html 译者:飞龙 协议:CC BY-NC-SA 4.0 我们已经遇到了许多情况,我们想要询问样本均值的问题。在本章中,我们将更深入地探讨我们可以比较不同组均值的各种方法。 我们可能想要询问均值是否具有特定值的最简单的

    2024年01月16日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包