• -------------------------------------------------------------
  • ====================================

kafka Stream概念

kafka dewbay 5年前 (2019-04-12) 1827次浏览 已收录 0个评论 扫描二维码

1.Kafka Stream
Kafka Streams 是一套处理分析 Kafka 中存储数据的客户端类库,处理完的数据或者写回 Kafka,或者发送给外部系统。它构建在一些重要的流处理概念之上:区分事件时间和处理时间、开窗的支持、简单有效的状态管理等。Kafka Streams 入门的门槛很低:很容易编写单机的示例程序,然后通过在多台机器上运行多个实例即可水平扩展从而达到高吞吐量。Kafka Streams 利用 Kafka 的并发模型以实现透明的负载均衡。
一些亮点:
1
2
• 设计成简单和轻量级的客户端类库,可以和现有 Java 应用、部署工具轻松整合。
• 除了 Kafka 自身外不依赖其他外部系统。利用 Kafka 的分区模型来实现水平扩展并保证有序处理。
• 支持容错的本地状态,这使得快速高效处理一些有状态的操作(如连接和开窗聚合)成为可能。
• 支持一次一条记录的处理方式以实现低延迟,也支持基于事件时间的开窗操作。
• 提供了两套流处理原语:高层的流 DSL 和低层的处理器 API。

核心概念

  1. Stream Processing Topology(流处理拓扑)

1、stream 是 Kafka Stream最重要的抽象,它代表了一个无限持续的数据集。stream 是有序的、可重放消息、对不可变数据集支持故障转移

2、一个流处理应用程序通过一或多个“处理器拓扑(processor topology)”来定义其计算逻辑,一个 processor topology 就是一张以流处理器(stream processor、节点)和流[streams](边)构成的图。(实际为 DAG,太熟悉了吧,多么类似 spark Streaming)

3、一个 stream processor 是 processor topology 中的一个节点,它代表一个在 stream 中的处理步骤:从上游 processors 接受数据、进行一些处理、最后发送一到多条数据到下游 processors

Kafka Stream 提供两种开发流处理拓扑(stream processing topology)的 API
1、high-level Stream DSL:提供通用的数据操作,如 map 和 fileter
2、lower-level Processor API:提供定义和连接自定义 processor,同时跟 state store(下文会介绍)交互

  1. 时间
    时间的概念在流处理中很关键,比如开窗这种操作就是根据时间边界来定义的。上面也提到过两个常见概念:

• 事件时间:事件或数据记录发生的时刻。
• 处理时间:事件或数据记录被流处理应用开始处理的时刻,比如记录开始被消费。处理时间可能比事件时间晚几毫秒到几天不等。

• 摄取时间:数据记录由 KafkaBroker 保存到 kafka topic 对应分区的时间点。摄取时间类似事件时间,都是一个嵌入在数据记录中的时间戳字段。不同的是,摄取时间是由 Kafka Broker 附加在目标 Topic 上的,而不是附加在事件源上的。如果事件处理速度足够快,事件产生时间和写入 Kafka 的时间差就会非常小,这主要取决于具体的使用情况。因此,无法在摄取时间和事件时间之间进行二选一,两个语义是完全不同的。同时,数据还有可能没有摄取时间,比如旧版本的 Kafka 或者生产者不能直接生成时间戳(比如无法访问本地时钟。)。

事件时间和摄取时间的选择是通过在 Kafka(不是 KafkaStreams)上进行配置实现的。从 Kafka 0.10.X 起,时间戳会被自动嵌入到 Kafka 的 Message 中,可以根据配置选择事件时间或者摄取时间。配置可以在 broker 或者 topic 中指定。Kafka Streams 默认提供的时间抽取器会将这些嵌入的时间戳恢复原样。

Kafka Stream 使用 TimestampExtractor 接口为每个消息分配一个 timestamp,具体的实现可以是从消息中的某个时间字段获取 timestamp 以提供 event-time 的语义或者返回处理时的时钟时间,从而将 processing-time 的语义留给开发者的处理程序。开发者甚至可以强制使用其他不同的时间概念来进行定义 event-time 和 processing time。

注意:Kafka Streams 中的摄取时间和其他流处理系统略有不同,其他流处理系统中的摄取时间指的是从数据源中获取到数据的时间,而kafka Streams 中,摄取时间是指记录被追加到 Kakfa topic 中的时间。
1

  1. 状态
    有些 stream 应用不需要 state,因为每条消息的处理都是独立的。然而维护 stream 处理的状态对于复杂的应用是非常有用的,比如可以对 stream 中的数据进行 join、group 和 aggreagte,Kafka Stream DSL 提供了这个功能。

Kafka Stream 使用 state stores(状态仓库)提供基于 stream 的数据存储和数据查询状态数据,每个 Kafka Stream 内嵌了多个 state store,可以通过 API 存取数据,这些 state store 的实现可以是持久化的 KV 存储引擎、内存 HashMap 或者其他数据结构。Kafka Stream 提供了 local state store 的故障转移和自动发现。

  1. KStream 和 KTable(流和表的双重性)
    Kafka Stream 定义了两种基本抽象:KStream 和 KTable,区别来自于 key-value 对值如何被解释,

4.1KStream:
一个纯粹的流就是所有的更新都被解释成 INSERT 语句(因为没有记录会替换已有的记录)的表。

在一个流中(KStream),每个 key-value 是一个独立的信息片断,比如,用户购买流是:alice->黄油,bob->面包,alice->奶酪面包,我们知道 alice 既买了黄油,又买了奶酪面包。

4.2KTable(changelog 流):
KTable 一张表就是一个所有的改变都被解释成 UPDATE 的流(因为所有使用同样的 key 的已存在的行都会被覆盖)。

对于一个表 table( KTable),是代表一个变化日志,如果表包含两对同样 key 的 key-value 值,后者会覆盖前面的记录,因为 key 值一样的,比如用户地址表:alice -> 纽约, bob -> 旧金山, alice -> 芝加哥,意味着 Alice 从纽约迁移到芝加哥,而不是同时居住在两个地方。

KTable 还提供了通过 key 查找数据值得功能,该查找功能可以用在 Join 等功能上。

这两个概念之间有一个二元性,一个流能被看成表,而一个表也可以看成流。

5.低层处理器 API
5.1 处理器
开发着通过实现 Processor 接口并实现 process 和 punctuate 方法,每条消息都会调用 process 方法,punctuate 方法会周期性的被调用

5.2 处理器拓扑
有了在处理器 API 中自定义的处理器,然后就可以使用 TopologyBuilder 来将处理器连接到一起从而构建处理器拓扑:
1
5.3 本地状态仓库
处理器 API 不仅可以处理当前到达的记录,也可以管理本地状态仓库以使得已到达的记录都可用于有状态的处理操作中(如聚合或开窗连接)。为利用本地状态仓库的优势,可使用 TopologyBuilder.addStateStore 方法以便在创建处理器拓扑时创建一个相应的本地状态仓库;或将一个已创建的本地状态仓库与现有处理器节点连接,通过 TopologyBuilder.connectProcessorAndStateStores 方法。

6.高层流 DSL
为使用流 DSL 来创建处理器拓扑,可使用 KStreamBuilder 类,其扩展自 TopologyBuilder 类。Kafka 的源代码中在 streams/examples 包中提供了一个示例。

6.1 从 Kafka 创建源端流
Kafka Streams 为高层流定义了两种基本抽象:记录流(定义为 KStream)可从一或多个 Kafka topic 源来创建,更新日志流(定义为 KTable)可从一个 Kafka topic 源来创建。

KStream 可以从多个kafka topic 中创建,而 KTable 只能单个 topic

KStreamBuilder builder = new KStreamBuilder();
KStream source1 = builder.stream(“topic1”, “topic2”);
KTable source2 = builder.table(“topic3”);
1
2
3
6.2 转换一个流
KStream 和 KTable 相应地都提供了一系列转换操作。每个操作可产生一或多个 KStream 和 KTable 对象,可被翻译成一或多个相连的处理器。所有这些转换方法连接在一起形成一个复杂的处理器拓扑。因为 KStream 和 KTable 是强类型的,这些转换操作都被定义为泛类型,使得用户可指定输入和输出数据类型。

这些转换中,filter、map、mapValues 等是无状态的,可用于 KStream 和 KTable 两者,通常用户会传一个自定义函数给这些函数作为参数,例如 Predicate 给 filter,KeyValueMapper 给 map 等:
1
无状态的转换不依赖于处理的状态,因此不需要状态仓库。有状态的转换则需要存取相应状态以处理和生成结果。例如,在 join 和 aggregate 操作里,一个窗口状态用于保存当前预定义窗口中收到的记录。于是转换可以获取状态仓库中累积的记录,并执行计算。

6.3 写回到kafka(Write streams back to Kafka)
最后,开发者可以将最终的结果 stream 写回到kafka,通过 KStream.to and KTable.to

joined.to(“topic4”);
1
如果应用希望继续读取写回到kafka中的数据,方法之一是构造一个新的 stream 并读取 kafka topic,Kafka Stream 提供了另一种更方便的方法:through

joined.to(“topic4”);
materialized = builder.stream(“topic4”);
KStream materialized = joined.through(“topic4”);
1
2
3
7.窗口
一个流处理器可能需要将数据划分为多个时间段,这就是流上窗口。这通常在 Join 或者 aggregation 聚合等保存本地状态的处理程序中使用。

Kafka StreamsDSL API 提供了可用的窗口操作,用户可以指定数据在窗口中的保存期限。这就允许 Kafka Streams 在窗口中保留一段时间的旧数据以等待其它晚到的数据。如果保留期过了之后数据才到达,这条消息就不能被处理,会被丢掉。
实时的流处理系统中,数据乱序总是存在的,这主要取决于数据在有效时间内如何进行处理。对于在正处于处理期的时间内的数据,如果数据乱序,延迟到达,在语义上就可以被正常处理,如果数据到达时候,已经不在处理期,那么这种数据就不适合处理期的语义,只能被丢弃掉。

  1. Join
    Join 操作负责在 Key 上对两个流的记录进行合并,并产生新流。一个基于流上的 Join 通常是基于窗口的,否则所有数据就都会被保存,记录就会无限增长。

KafkaStreams DSL 支持不同的 Join 操作,比如 KStram 和 KStream 之间的 Join,以及 KStream 和 KTable 之间的 Join。

  1. Aggregations
    聚合操作需要一个输入流,并且以多个输入记录为单位组合成单个记录并产生新流。常见的聚合操作有 count 和 sum。流上的聚合也必须基于窗口进行,否则数据和 join 一样都会无限制增长。

在 Kafka Streams 的 DSL 中,一个聚合输入流可以是 KStream 形式或者 KTable 形式,但是输出流永远都是 KTable。这就使得 Kafka Streams 的输出结果会被不断更新,这样,当有数据乱序到达之后,数据也可以被及时更新,因为最终输出是 KTable,新 key 会覆盖旧值。

配置参数

参考文章:http://blog.csdn.net/mayp1/article/details/51626643


露水湾 , 版权所有丨如未注明 , 均为原创丨本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:kafka Stream概念
喜欢 (0)
[]
分享 (0)
关于作者:
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址