21 張圖 9千字詳解Kafka為何支持每秒上百萬的高并發(fā)寫入?架構是怎樣的?
- Kafka I/O 模型拆解
- 零拷貝技術的運用
- Kakfa 架構設計和負載均衡
Kafka 架構
Topic 實現(xiàn)原理
partition 水平拓展和負載均衡算法
- 分段(Segment)存儲消息實現(xiàn)原理
- 磁盤順序寫、pageCache
- 數(shù)據(jù)壓縮
Kafka Reactor I/O 網絡模型
Kafka Reactor I/O 網絡模型是一種非阻塞 I/O 模型,利用事件驅動機制來處理網絡請求。
該模型通過 Reactor 模式實現(xiàn),即一個或多個 I/O 多路復用器(如 Java 的 Selector)監(jiān)聽多個通道的事件,當某個通道準備好進行 I/O 操作時,觸發(fā)相應的事件處理器進行處理。
這種模型在高并發(fā)場景下具有很高的效率,能夠同時處理大量的網絡連接請求,而不需要為每個連接創(chuàng)建一個線程,從而節(jié)省系統(tǒng)資源。
Reactor 線程模型如圖 2 所示。
圖片
Reacotr 模型主要分為三個角色。
- Reactor:把 I/O 事件根據(jù)類型分配給分配給對應的 Handler 處理。
- Acceptor:處理客戶端連接事件。
- Handler:處理讀寫等任務。
Kafka 基于 Reactor 模型架構如圖 3 所示。
圖片
Kafka 的網絡通信模型基于 NIO(New Input/Output)庫,通過 Reactor 模式實現(xiàn),具體包括以下幾個關鍵組件:
- SocketServer:管理所有的網絡連接,包括初始化 Acceptor 和 Processor 線程。
- Acceptor:監(jiān)聽客戶端的連接請求,并將其分配給 Processor 線程。Acceptor 使用 Java NIO 的 Selector 進行 I/O 多路復用,并注冊 OP_ACCEPT 事件來監(jiān)聽新的連接請求。每當有新的連接到達時,Acceptor 會接受連接并創(chuàng)建一個 SocketChannel,然后將其分配給一個 Processor 線程進行處理。
- Processor:處理具體的 I/O 操作,包括讀取客戶端請求和寫入響應數(shù)據(jù)。Processor 同樣使用 Selector 進行 I/O 多路復用,注冊 OP_READ 和 OP_WRITE 事件來處理讀寫操作。每個 Processor 線程都有一個獨立的 Selector,用于管理多個 SocketChannel。
- RequestChannel:充當 Processor 和請求處理線程之間的緩沖區(qū),存儲請求和響應數(shù)據(jù)。Processor 將讀取的請求放入 RequestChannel 的請求隊列,而請求處理線程則從該隊列中取出請求進行處理。
- KafkaRequestHandler:請求處理線程,從 RequestChannel 中讀取請求,調用 KafkaApis 進行業(yè)務邏輯處理,并將響應放回 RequestChannel 的響應隊列。KafkaRequestHandler 線程池中的線程數(shù)量由配置參數(shù) num.io.threads 決定。
圖片
Chaya:該模型和如何提高 kafka 的性能和效率?
高并發(fā)處理能力:通過 I/O 多路復用機制,Kafka 能夠同時處理大量的網絡連接請求,而不需要為每個連接創(chuàng)建一個線程,從而節(jié)省了系統(tǒng)資源。
低延遲:非阻塞 I/O 操作避免了線程的阻塞等待,使得 I/O 操作能夠更快地完成,從而降低了系統(tǒng)的響應延遲。
資源節(jié)省:通過減少線程的數(shù)量和上下文切換,Kafka 在處理高并發(fā)請求時能夠更有效地利用 CPU 和內存資源。
擴展性強:Reactor 模式的分層設計使得 Kafka 的網絡模塊具有很好的擴展性,可以根據(jù)需要增加更多的 I/O 線程或調整事件處理器的邏輯。
零拷貝技術的運用
零拷貝技術是一種計算機操作系統(tǒng)技術,用于在內存和存儲設備之間進行數(shù)據(jù)傳輸時,避免 CPU 的參與,從而減少 CPU 的負擔并提高數(shù)據(jù)傳輸效率。
Kafka 使用零拷貝技術來優(yōu)化數(shù)據(jù)傳輸,特別是在生產者將數(shù)據(jù)寫入 Kafka 和消費者從 Kafka 讀取數(shù)據(jù)的過程中。在 Kafka 中,零拷貝主要通過以下幾種方式實現(xiàn):
- sendfile() 系統(tǒng)調用:在發(fā)送數(shù)據(jù)時,Kafka 使用操作系統(tǒng)的 sendfile() 系統(tǒng)調用直接將文件從磁盤發(fā)送到網絡套接字,而無需將數(shù)據(jù)復制到應用程序的用戶空間。這減少了數(shù)據(jù)復制次數(shù),提高了傳輸效率。
- 文件內存映射(Memory-Mapped Files):Kafka 使用文件內存映射技術(mmap),將磁盤上的日志文件映射到內存中,使得讀寫操作可以在內存中直接進行,無需進行額外的數(shù)據(jù)復制。
比如 Broker 讀取磁盤數(shù)據(jù)并把數(shù)據(jù)發(fā)送給 Consumer 的過程,傳統(tǒng) I/O 經歷以下步驟。
- 讀取數(shù)據(jù):通過read 系統(tǒng)調用將磁盤數(shù)據(jù)通過 DMA copy 到內核空間緩沖區(qū)(Read buffer)。
- 拷貝數(shù)據(jù):將數(shù)據(jù)從內核空間緩沖區(qū)(Read buffer) 通過 CPU copy 到用戶空間緩沖區(qū)(Application buffer)。
- 寫入數(shù)據(jù):通過write()系統(tǒng)調用將數(shù)據(jù)從用戶空間緩沖區(qū)(Application) CPU copy 到內核空間的網絡緩沖區(qū)(Socket buffer)。
- 發(fā)送數(shù)據(jù):將內核空間的網絡緩沖區(qū)(Socket buffer)DMA copy 到網卡目標端口,通過網卡將數(shù)據(jù)發(fā)送到目標主機。
這一過程經過的四次 copy 如圖 5 所示。
圖片
Chaya:零拷貝技術如何提高 Kakfa 的性能?
零拷貝技術通過減少 CPU 負擔和內存帶寬消耗,提高了 Kakfa 性能。
- 降低 CPU 使用率:由于數(shù)據(jù)不需要在內核空間和用戶空間之間多次復制,CPU 的參與減少,從而降低了 CPU 使用率,騰出更多的 CPU 資源用于其他任務。
- 提高數(shù)據(jù)傳輸速度:直接從磁盤到網絡的傳輸路徑減少了中間步驟,使得數(shù)據(jù)傳輸更加高效,延遲更低。
- 減少內存帶寬消耗:通過減少數(shù)據(jù)在內存中的復制次數(shù),降低了內存帶寬的消耗,使得系統(tǒng)能夠處理更多的并發(fā)請求。
Partition 并發(fā)和分區(qū)負載均衡
在說 Topic patition 分區(qū)并發(fā)之前,我們先了解下 kafka 架構設計。
Kafka 架構
一個典型的 Kafka 架構包含以下幾個重要組件,如圖 6 所示。
圖片
- Producer(生產者):發(fā)送消息的一方,負責發(fā)布消息到 Kafka 主題(Topic)。
- Consumer(消費者):接受消息的一方,訂閱主題并處理消息。Kafka 有 ConsumerGroup 的概念,每個 Consumer 只能消費所分配到的 Partition 的消息,每一個 Partition 只能被一個 ConsumerGroup 中的一個 Consumer 所消費,所以同一個 ConsumerGroup 中 Consumer 的數(shù)量如果超過了 Partiton 的數(shù)量,將會出現(xiàn)有些 Consumer 分配不到 partition 消費。
- Broker(代理):服務代理節(jié)點,Kafka 集群中的一臺服務器就是一個 broker,可以水平無限擴展,同一個 Topic 的消息可以分布在多個 broker 中。
- Topic(主題)與 Partition(分區(qū)) :Kafka 中的消息以 Topic 為單位進行劃分,生產者將消息發(fā)送到特定的 Topic,而消費者負責訂閱 Topic 的消息并進行消費。圖中 TopicA 有三個 Partiton(TopicA-par0、TopicA-par1、TopicA-par2)為了提升整個集群的吞吐量,Topic 在物理上還可以細分多個 Partition,一個 Partition 在磁盤上對應一個文件夾。
- Replica(副本):副本,是 Kafka 保證數(shù)據(jù)高可用的方式,Kafka 同一 Partition 的數(shù)據(jù)可以在多 Broker 上存在多個副本,通常只有 leader 副本對外提供讀寫服務,當 leader 副本所在 broker 崩潰或發(fā)生網絡一場,Kafka 會在 Controller 的管理下會重新選擇新的 Leader 副本對外提供讀寫服務。
- ZooKeeper:管理 Kafka 集群的元數(shù)據(jù)和分布式協(xié)調。
Topic 主題
Topic 是 Kafka 中數(shù)據(jù)的邏輯分類單元,可以理解成一個隊列。Broker 是所有隊列部署的機器,Producer 將消息發(fā)送到特定的 Topic,而 Consumer 則從特定的 Topic 中消費消息。
圖片
Partition
為了提高并行處理能力和擴展性,Kafka 將一個 Topic 分為多個 Partition。每個 Partition 是一個有序的消息隊列,消息在 Partition 內部是有序的,但在不同的 Partition 之間沒有順序保證。
Producer 可以并行地將消息發(fā)送到不同的 Partition,Consumer 也可以并行地消費不同的 Partition,從而提升整體處理能力。
因此,可以說,每增加一個 Paritition 就增加了一個消費并發(fā)。Partition 的引入不僅提高了系統(tǒng)的可擴展性,還使得數(shù)據(jù)處理更加靈活。
Partition 分區(qū)策略
碼樓:“生產者將消息發(fā)送到哪個分區(qū)是如何實現(xiàn)的?不合理的分配會導致消息集中在某些 Broker 上,豈不是完犢子。”
主要有以下幾種分區(qū)策略:
- 輪詢策略:也稱 Round-robin 策略,即順序分配。
- 隨機策略:也稱 Randomness 策略。所謂隨機就是我們隨意地將消息放置到任意一個分區(qū)上。
- 按消息鍵保序策略。
- 基于地理位置分區(qū)策略。
輪詢策略
比如一個 Topic 下有 3 個分區(qū),那么第一條消息被發(fā)送到分區(qū) 0,第二條被發(fā)送到分區(qū) 1,第三條被發(fā)送到分區(qū) 2,以此類推。
當生產第 4 條消息時又會重新開始,即將其分配到分區(qū) 0,如圖 5 所示。
輪詢策略有非常優(yōu)秀的負載均衡表現(xiàn),它總是能保證消息最大限度地被平均分配到所有分區(qū)上,故默認情況下它是最合理的分區(qū)策略,也是我們最常用的分區(qū)策略之一。
隨機策略
所謂隨機就是我們隨意地將消息放置到任意一個分區(qū)上。如圖所示,9 條消息隨機分配到不同分區(qū)。
圖片
按消息鍵分配策略
一旦消息被定義了 Key,那么你就可以保證同一個 Key 的所有消息都進入到相同的分區(qū)里面,比如訂單 ID,那么綁定同一個 訂單 ID 的消息都會發(fā)布到同一個分區(qū),由于每個分區(qū)下的消息處理都是有順序的,故這個策略被稱為按消息鍵保序策略,如圖所示。
圖片
基于地理位置
這種策略一般只針對那些大規(guī)模的 Kafka 集群,特別是跨城市、跨國家甚至是跨大洲的集群。
我們就可以根據(jù) Broker 所在的 IP 地址實現(xiàn)定制化的分區(qū)策略。比如下面這段代碼:
List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
return partitions.stream()
.filter(p -> isSouth(p.leader().host()))
.map(PartitionInfo::partition)
.findAny()
.get();
我們可以從所有分區(qū)中找出那些 Leader 副本在南方的所有分區(qū),然后隨機挑選一個進行消息發(fā)送。
Segment 日志文件和稀疏索引
前面已經介紹過,Kafka 的 Topic 可以分為多個 Partition,每個 Partition 有多個副本,你可以理解為副本才是存儲消息的物理存在。其實每個副本都是以日志(Log)的形式存儲。
碼樓:“日志文件過大怎么辦?”
為了解決單一日志文件過大的問題,kafka 采用了分段(Segment)的形式進行存儲。
所謂 Segment,就是當一個日志文件大小到達一定條件之后,就新建一個新的 Segment,然后在新的 Segment 寫入數(shù)據(jù)。Topic、Partition、和日志的關系如圖 8 所示。
圖片
一個 segment 對應磁盤上多個文件。
- .index : 消息的 offset 索引文件。
- .timeindex : 消息的時間索引文件(0.8 版本加入的)。
- .log : 存儲實際的消息數(shù)據(jù)。
- .snapshot : 記錄了 producer 的事務信息。
- .swap : 用于 Segment 恢復。
- .txnindex 文件,記錄了中斷的事務信息。
.log 文件存儲實際的 message,kafka 為每一個日志文件添加了 2 個索引文件 .index以及 .timeindex。
segment 文件命名規(guī)則:partition 第一個 segment 從 0 開始,后續(xù)每個 segment 文件名為上一個 segment 文件最后一條消息的 offset 值。數(shù)值最大為 64 位 long 大小,19 位數(shù)字字符長度,沒有數(shù)字用 0 填充。
碼樓:“為什么要有 .index 文件?”
為了提高查找消息的性能。kafka 為消息數(shù)據(jù)建了兩種稀疏索引,一種是方便 offset 查找的 .index 稀疏索引,還有一種是方便時間查找的 .timeindex 稀疏索引。
稀疏索引
Chaya:“為什么不創(chuàng)建一個哈希索引,從 offset 到物理消息日志文件偏移量的映射關系?”
萬萬不可,Kafka 作為海量數(shù)據(jù)處理的中間件,每秒高達幾百萬的消息寫入,這個哈希索引會把把內存撐爆炸。
稀疏索引不會為每個記錄都保存索引,而是寫入一定的記錄之后才會增加一個索引值,具體這個間隔有多大則通過 log.index.interval.bytes 參數(shù)進行控制,默認大小為 4 KB,意味著 Kafka 至少寫入 4KB 消息數(shù)據(jù)之后,才會在索引文件中增加一個索引項。
哈希稀疏索引把消息劃分為多個 block ,只索引每個 block 第一條消息的 offset 即可 。
圖片
- Offset 偏移量:表示第幾個消息。
- position:消息在磁盤的物理位置。
Chaya:如果消費者要查找 Offset 為 4 的消息,查找過程是怎樣的?
- 首先用二分法定位消息在哪個 Segment ,Segment 文件命名是 Partition 第一個 segment 從 0 開始,后續(xù)每個 segment 文件名為上一個 segment 文件最后一條消息的 offset 值。
- 打開這個 Segment 對應的 index 索引文件,用二分法查找 offset 不大于 4 的索引條目,對應上圖第二條條目,也就是 offset = 3 的那個索引。通過索引我們可以知道 offset 為 4 的消息所在的日志文件磁盤物理位置為 495。
- 打開日志文件,從 Position 為 495 位置開始開始順序掃描文件,將掃描過程中每條消息的 offset 與 4 比較,直到找到 offset 為 4 的那條 Message。
圖片
.timeindex 文件同理,只不過它的查找結果是 offset,之后還要在走一遍 .index 索引查找流程。
由于 kafka 設計為順序讀寫磁盤,因此遍歷區(qū)間的數(shù)據(jù)并對速度有太大的影響,而選擇稀疏索引還能節(jié)約大量的磁盤空間。
mmap
有了稀疏索引,當給定一個 offset 時,Kafka 采用的是二分查找來掃描索引定位不大于 offset 的物理位移 position,再到日志文件找到目標消息。
利用稀疏索引,已經基本解決了高效查詢的問題,但是這個過程中仍然有進一步的優(yōu)化空間,那便是通過 mmap(memory mapped files) 讀寫上面提到的稀疏索引文件,進一步提高查詢消息的速度。
就是基于 JDK nio 包下的 MappedByteBuffer 的 map 函數(shù),將磁盤文件映射到內存中。
進程通過調用 mmap 系統(tǒng)函數(shù),將文件或物理內存的一部分映射到其虛擬地址空間。這個過程中,操作系統(tǒng)會為映射的內存區(qū)域分配一個虛擬地址,并將這個地址與文件或物理內存的實際內容關聯(lián)起來。
一旦內存映射完成,進程就可以通過指針直接訪問映射的內存區(qū)域。這種訪問方式就像訪問普通內存一樣簡單和高效。
圖引自《碼農的荒島求生》
順序讀寫磁盤
碼樓:“不管如何,Kafka 讀寫消息都要讀寫磁盤,如何變快呢?”
磁盤就一定很慢么?人們普遍錯誤地認為硬盤很慢。然而,存儲介質的性能,很大程度上依賴于數(shù)據(jù)被訪問的模式。
同樣在一塊普通的 7200 RPM SATA 硬盤上,隨機 I/O(random I/O)與順序 I/O 相比,隨機 I/O 的性能要比順序 I/O 慢 3 到 4 個數(shù)量級。
合理的方式可以讓磁盤寫操作更加高效,減少了尋道時間和旋轉延遲。
碼樓,你還留著課本嗎?來,翻到講磁盤的章節(jié),讓我們回顧一下磁盤的運行原理。
碼樓:“鬼還留著哦,課程還沒上到一半書就沒了。要不是考試俺眼神好,就掛科了。”
磁盤的運行原理如圖所示。
圖片
硬盤在邏輯上被劃分為磁道、柱面以及扇區(qū)。硬盤的每個盤片的每個面都有一個讀寫磁頭。
完成一次磁盤 I/O ,需要經過尋道、旋轉和數(shù)據(jù)傳輸三個步驟。
- 尋道:首先必須找到柱面,即磁頭需要移動到相應磁道,這個過程叫做尋道,所耗費時間叫做尋道時間。尋道時間越短,I/O 操作越快,目前磁盤的平均尋道時間一般在 3-15ms。
- 旋轉:磁盤旋轉將目標扇區(qū)旋轉到磁頭下。這個過程耗費的時間叫做旋轉時間。旋轉延遲取決于磁盤轉速,通常用磁盤旋轉一周所需時間的 1/2 表示。比如:7200rpm 的磁盤平均旋轉延遲大約為 60*1000/7200/2 = 4.17ms,而轉速為 15000rpm 的磁盤其平均旋轉延遲為 2ms。
- 數(shù)據(jù)傳輸:數(shù)據(jù)在磁盤與內存之間的實際傳輸。
因此,如果在寫磁盤的時候省去尋道、旋轉可以極大地提高磁盤讀寫的性能。
Kafka 采用順序寫文件的方式來提高磁盤寫入性能。順序寫文件,順序 I/O 的時候,磁頭幾乎不用換道,或者換道的時間很短。減少了磁盤尋道和旋轉的次數(shù)。磁頭再也不用在磁道上亂舞了,而是一路向前飛速前行。
Kafka 中每個 Partition 是一個有序的,不可變的消息序列,新的消息可以不斷追加到 Partition 的末尾,在 Kafka 中 Partition 只是一個邏輯概念,每個 Partition 劃分為多個 Segment,每個 Segment 對應一個物理文件,Kafka 對 Segment 文件追加寫,這就是順序寫文件。
每條消息在發(fā)送前會根據(jù)負載均衡策略計算出要發(fā)往的目標 Partition 中,broker 收到消息之后把該條消息按照追加的方式順序寫入 Partition 的日志文件中。
圖片
如下圖所示,可以看到磁盤順序寫的性能遠高于磁盤隨機寫,甚至比內存隨機寫還快。
圖片
PageCache
Chaya:“碼哥,使用稀疏索引和 mmap 內存映射技術提高讀消息的性能;Topic Partition 加磁盤順序寫持久化消息的設計已經很快了,但是與內存順序寫還是慢了,還有優(yōu)化空間么?”
小姑娘,你的想法很好,作為快到令人發(fā)指的 Kafka,確實想到了一個方式來提高讀寫寫磁盤文件的性能。這就是接下來的主角 Page Cache 。
簡而言之:利用操作系統(tǒng)的緩存技術,在讀寫磁盤日志文件時,操作的是內存,而不是文件,由操作系統(tǒng)決定什么在某個時間將 Page Cache 的數(shù)據(jù)刷寫到磁盤中。
圖片
- Producer 發(fā)送消息到 Broker 時,Broker 會使用 pwrite() 系統(tǒng)調用寫入數(shù)據(jù),此時數(shù)據(jù)都會先寫入page cache。
- Consumer 消費消息時,Broker 使用 sendfile() 系統(tǒng)調用函數(shù),通零拷貝技術地將 Page Cache 中的數(shù)據(jù)傳輸?shù)?Broker 的 Socket buffer,再通過網絡傳輸?shù)?Consumer。
- leader 與 follower 之間的同步,與上面 consumer 消費數(shù)據(jù)的過程是同理的。
Kafka 重度依賴底層操作系統(tǒng)提供的 PageCache 功能。當上層有寫操作時,操作系統(tǒng)只是將數(shù)據(jù)寫入 PageCache,同時標記 Page 屬性為 Dirty。
當讀操作發(fā)生時,先從 PageCache 中查找,如果發(fā)生缺頁才進行磁盤調度,最終返回需要的數(shù)據(jù)。
圖片
于是我們得到一個重要結論:如果 Kafka producer 的生產速率與 consumer 的消費速率相差不大,那么就能幾乎只靠對 broker page cache 的讀寫完成整個生產-消費過程,磁盤訪問非常少。
實際上 PageCache 是把盡可能多的空閑內存都當做了磁盤緩存來使用。
數(shù)據(jù)壓縮和批量處理
數(shù)據(jù)壓縮在 Kafka 中有助于減少磁盤空間的使用和網絡帶寬的消耗,從而提升整體性能。
通過減少消息的大小,壓縮可以顯著降低生產者和消費者之間的數(shù)據(jù)傳輸時間。
Chaya:Kafka 支持的壓縮算法有哪些?
在 Kafka 2.1.0 版本之前,Kafka 支持 3 種壓縮算法:GZIP、Snappy 和 LZ4。從 2.1.0 開始,Kafka 正式支持 Zstandard 算法(簡寫為 zstd)。
Chaya:這么多壓縮算法,我如何選擇?
一個壓縮算法的優(yōu)劣,有兩個重要的指標:壓縮比,文件壓縮前的大小與壓縮后的大小之比,比如源文件占用 1000 M 內存,經過壓縮后變成了 200 M,壓縮比 = 1000 /200 = 5,壓縮比越高越高;另一個指標是壓縮/解壓縮吞吐量,比如每秒能壓縮或者解壓縮多少 M 數(shù)據(jù),吞吐量越高越好。
生產者壓縮
Kafka 的數(shù)據(jù)壓縮主要在生產者端進行。具體步驟如下:
- 生產者配置壓縮方式:在 KafkaProducer 配置中設置 compression.type 參數(shù),可以選擇 gzip、snappy、lz4 或 zstd。
- 消息壓縮:生產者將消息批量收集到一個 batch 中,然后對整個 batch 進行壓縮。這種批量壓縮方式可以獲得更高的壓縮率。
- 壓縮消息存儲:壓縮后的 batch 以壓縮格式存儲在 Kafka 的主題(Topic)分區(qū)中。
- 消費者解壓縮:消費者從 Kafka 主題中獲取消息時,首先對接收到的 batch 進行解壓縮,然后處理其中的每一條消息。
解壓縮
有壓縮,那必有解壓縮。通常情況下,Producer 發(fā)送壓縮后的消息到 Broker ,原樣保存起來。
Consumer 消費這些消息的時候,Broker 原樣發(fā)給 Consumer,由 Consumer 執(zhí)行解壓縮還原出原本的信息。
Chaya:Consumer 咋知道用什么壓縮算法解壓縮?
Kafka 會將啟用了哪種壓縮算法封裝進消息集合中,這樣當 Consumer 讀取到消息集合時,它自然就知道了這些消息使用的是哪種壓縮算法。
總之一句話:Producer 端壓縮、Broker 端保持、Consumer 端解壓縮。
批量數(shù)據(jù)處理
Kafka Producer 向 Broker 發(fā)送消息不是一條消息一條消息的發(fā)送,將多條消息打包成一個批次發(fā)送。
批量數(shù)據(jù)處理可以顯著提高 Kafka 的吞吐量并減少網絡開銷。
Kafka Producer 的執(zhí)行流程如下圖所示:
圖片
發(fā)送消息依次經過以下處理器:
- Serialize:鍵和值都根據(jù)傳遞的序列化器進行序列化。優(yōu)秀的序列化方式可以提高網絡傳輸?shù)男省?/li>
- Partition:決定將消息寫入主題的哪個分區(qū),默認情況下遵循 murmur2 算法。自定義分區(qū)程序也可以傳遞給生產者,以控制應將消息寫入哪個分區(qū)。
- Compression:默認情況下,在 Kafka 生產者中不啟用壓縮。Compression 不僅可以更快地從生產者傳輸?shù)酱恚€可以在復制過程中進行更快的傳輸。壓縮有助于提高吞吐量,降低延遲并提高磁盤利用率。
- Record Accumulator:Accumulate顧名思義,就是一個消息累計器。其內部為每個 Partition 維護一個Deque雙端隊列,隊列保存將要發(fā)送的 Batch批次數(shù)據(jù),Accumulate將數(shù)據(jù)累計到一定數(shù)量,或者在一定過期時間內,便將數(shù)據(jù)以批次的方式發(fā)送出去。記錄被累積在主題每個分區(qū)的緩沖區(qū)中。根據(jù)生產者批次大小屬性將記錄分組。主題中的每個分區(qū)都有一個單獨的累加器 / 緩沖區(qū)。
- Group Send:記錄累積器中分區(qū)的批次按將它們發(fā)送到的代理分組。 批處理中的記錄基于 batch.size 和 linger.ms 屬性發(fā)送到代理。 記錄由生產者根據(jù)兩個條件發(fā)送。 當達到定義的批次大小或達到定義的延遲時間時。
- Send Thread:發(fā)送線程,從 Accumulator 的隊列取出待發(fā)送的 Batch 批次消息發(fā)送到 Broker。
- Broker 端處理:Kafka Broker 接收到 batch 后,將其存儲在對應的主題分區(qū)中。
- 消費者端的批量消費:消費者可以配置一次拉取多條消息的數(shù)量,通過 fetch.min.bytes 和 fetch.max.wait.ms 參數(shù)控制批量大小和等待時間。
無鎖輕量級 offset
Offset 是 Kafka 中的一個重要概念,用于標識消息在分區(qū)中的位置。
每個分區(qū)中的消息都有一個唯一的 offset,消費者通過維護自己的 offset 來確保準確消費消息。offset 的高效管理對于 Kafka 的性能至關重要。
圖片
offset 是從 0 開始的,每當有新的消息寫入分區(qū)時,offset 就會加 1。offset 是不可變的,即使消息被刪除或過期,offset 也不會改變或重用。
Consumer 需要向 Kafka 匯報自己的位移數(shù)據(jù),這個匯報過程被稱為提交位移(Committing Offsets)。因為 Consumer 能夠同時消費多個 partition 的數(shù)據(jù),所以位移的提交實際上是在 partition 粒度上進行的,即Consumer 需要為分配給它的每個 partition 提交各自的位移數(shù)據(jù)。
提交位移主要是為了表征 Consumer 的消費進度,這樣當 Consumer 發(fā)生故障重啟之后,就能夠從 Kafka 中讀取之前提交的位移值,然后從相應的位移處繼續(xù)消費。
在傳統(tǒng)的消息隊列系統(tǒng)中,offset 通常需要通過鎖機制來保證一致性,但這會帶來性能瓶頸。Kafka 的設計哲學是盡量減少鎖的使用,以提升并發(fā)處理能力和整體性能。
無鎖設計思想
Kafka 在 offset 設計中采用了一系列無鎖的技術,使其能夠在高并發(fā)的環(huán)境中保持高效。
- 順序寫入:Kafka 使用順序寫入的方式將消息追加到日志文件的末尾,避免了文件位置的頻繁變動,從而減少了鎖的使用。
- MMAP 內存映射文件:Kafka 使用內存映射文件(Memory Mapped File)來訪問日志數(shù)據(jù)和索引文件。這種方式使得文件數(shù)據(jù)可以直接映射到進程的虛擬地址空間中,從而減少了系統(tǒng)調用的開銷,提高了數(shù)據(jù)訪問的效率。
- 零拷貝:Kafka 使用零拷貝(Zero Copy)技術,將數(shù)據(jù)從磁盤直接傳輸?shù)骄W絡,繞過了用戶態(tài)的復制過程,大大提高了數(shù)據(jù)傳輸?shù)男省?/li>
- 批量處理:Kafka 支持批量處理消息,在一個批次中同時處理多個消息,減少了網絡和 I/O 的開銷。
消費者 Offset 管理流程
graph TD;
A[啟動消費者] --> B[從分區(qū)讀取消息];
B --> C[處理消息];
C --> D{是否成功處理?};
D --> |是| E[更新 Offset];
D --> |否| F[記錄失敗, 重新處理];
E --> G[提交 Offset];
G --> H[繼續(xù)處理下一個消息];
F --> B;
H --> B;
- 啟動消費者:消費者啟動并訂閱 Kafka 主題的某個分區(qū)。
- 從分區(qū)讀取消息:消費者從指定分區(qū)中讀取消息。
- 處理消息:消費者處理讀取到的消息。
- 是否成功處理:判斷消息是否成功處理。
如果成功處理,更新 Offset。
如果處理失敗,記錄失敗原因并準備重新處理。
- 更新 Offset:成功處理消息后,更新 Offset 以記錄已處理消息的位置。
- 提交 Offset:將更新后的 Offset 提交到 Kafka,以確保消息處理進度的持久化。
- 繼續(xù)處理下一個消息:提交 Offset 后,繼續(xù)讀取并處理下一個消息。
Kafka 通過無鎖輕量級 offset 的設計,實現(xiàn)了高性能、高吞吐和低延時的目標。
總結
Kafka 通過無鎖輕量級 offset 的設計,實現(xiàn)了高性能、高吞吐和低延時的目標。
其 Reactor I/O 網絡模型、磁盤順序寫入、內存映射文件、零拷貝、數(shù)據(jù)壓縮和批量處理等技術,為 Kafka 提供了強大的數(shù)據(jù)處理能力和高效的消息隊列服務。
- Reactor I/O 網絡模型:通過 I/O 多路復用機制,Kafka 能夠同時處理大量的網絡連接請求,而不需要為每個連接創(chuàng)建一個線程,從而節(jié)省了系統(tǒng)資源。
- 順序寫入:Kafka 使用順序寫入的方式將消息追加到日志文件的末尾,避免了文件位置的頻繁變動,從而減少了鎖的使用。
- MMAP 內存映射文件:Kafka 使用內存映射文件(Memory Mapped File)來訪問日志數(shù)據(jù)和索引文件。這種方式使得文件數(shù)據(jù)可以直接映射到進程的虛擬地址空間中,從而減少了系統(tǒng)調用的開銷,提高了數(shù)據(jù)訪問的效率。
- 零拷貝:Kafka 使用零拷貝(Zero Copy)技術,將數(shù)據(jù)從磁盤直接傳輸?shù)骄W絡,繞過了用戶態(tài)的復制過程,大大提高了數(shù)據(jù)傳輸?shù)男省?/li>
- 數(shù)據(jù)壓縮和批量處理:數(shù)據(jù)壓縮在 Kafka 中有助于減少磁盤空間的使用和網絡帶寬的消耗,從而提升整體性能。;Kafka 支持批量處理消息,在一個批次中同時處理多個消息,減少了網絡和 I/O 的開銷。