成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專(zhuān)欄INFORMATION COLUMN

kafka架構(gòu)原理

IT那活兒 / 1284人閱讀
kafka架構(gòu)原理
點(diǎn)擊上方“IT那活兒”公眾號(hào),關(guān)注后了解更多內(nèi)容,不管IT什么活兒,干就完了?。?!

Kafka介紹

kafka是一個(gè)分布式、支持分區(qū)的(partition)、多副本的(replica),基于zookeeper協(xié)調(diào)的分布式消息系統(tǒng),它的最大的特性就是可以實(shí)時(shí)的處理大量數(shù)據(jù)以滿足各種需求場(chǎng)景。


Kafka的架構(gòu)原理

Kafka是一種高吞吐量的分布式發(fā)布訂閱消息系統(tǒng),它可以處理消費(fèi)者規(guī)模的網(wǎng)站中的所有動(dòng)作流數(shù)據(jù),具有高性能、持久化、多副本備份、橫向擴(kuò)展能力。

2.1 基礎(chǔ)架構(gòu)與名詞解釋

  • Producer:Producer即生產(chǎn)者,消息的產(chǎn)生者,是消息的入口。
  • Broker:Broker是kafka實(shí)例,每個(gè)服務(wù)器上有一個(gè)或多個(gè)kafka的實(shí)例,我們姑且認(rèn)為每個(gè)broker對(duì)應(yīng)一臺(tái)服務(wù)器。每個(gè)kafka集群內(nèi)的broker都有一個(gè)不重復(fù)的編號(hào),如圖中的broker-0、broker-1等……
  • Topic:消息的主題,可以理解為消息的分類(lèi),kafka的數(shù)據(jù)就保存在topic。在每個(gè)broker上都可以創(chuàng)建多個(gè)topic。
  • Partition:Topic的分區(qū),每個(gè)topic可以有多個(gè)分區(qū),分區(qū)的作用是做負(fù)載,提高kafka的吞吐量。同一個(gè)topic在不同的分區(qū)的數(shù)據(jù)是不重復(fù)的,partition的表現(xiàn)形式就是一個(gè)一個(gè)的文件夾!
  • Replication:每一個(gè)分區(qū)都有多個(gè)副本,副本的作用是做備胎。當(dāng)主分區(qū)(Leader)故障的時(shí)候會(huì)選擇一個(gè)備胎(Follower)上位,成為L(zhǎng)eader。在kafka中默認(rèn)副本的最大數(shù)量是10個(gè),且副本的數(shù)量不能大于Broker的數(shù)量,follower和leader絕對(duì)是在不同的機(jī)器,同一機(jī)器對(duì)同一個(gè)分區(qū)也只可能存放一個(gè)副本(包括自己)。
  • Message:每一條發(fā)送的消息主體。
  • Consumer:消費(fèi)者,即消息的消費(fèi)方,是消息的出口。
  • Consumer Group:我們可以將多個(gè)消費(fèi)組組成一個(gè)消費(fèi)者組,在kafka的設(shè)計(jì)中同一個(gè)分區(qū)的數(shù)據(jù)只能被消費(fèi)者組中的某一個(gè)消費(fèi)者消費(fèi)。同一個(gè)消費(fèi)者組的消費(fèi)者可以消費(fèi)同一個(gè)topic的不同分區(qū)的數(shù)據(jù),這也是為了提高kafka的吞吐量!
  • Zookeeper:kafka集群依賴(lài)zookeeper來(lái)保存集群的的元信息,來(lái)保證系統(tǒng)的可用性。

2.2 工作流程分析

2.2.1 發(fā)送數(shù)據(jù)

Producer在寫(xiě)入數(shù)據(jù)的時(shí)候永遠(yuǎn)的找leader,不會(huì)直接將數(shù)據(jù)寫(xiě)入follower!那leader怎么找呢?寫(xiě)入的流程又是什么樣的呢?我們看下圖:
注意:消息寫(xiě)入leader后,follower是主動(dòng)的去leader進(jìn)行同步的!
producer采用push模式將數(shù)據(jù)發(fā)布到broker,每條消息追加到分區(qū)中,順序?qū)懭氪疟P(pán),所以保證同一分區(qū)內(nèi)的數(shù)據(jù)是有序的!寫(xiě)入示意圖如下:

kafka為什么要做分區(qū)呢?分區(qū)的主要目的是:

  • 方便擴(kuò)展:因?yàn)橐粋€(gè)topic可以有多個(gè)partition,所以我們可以通過(guò)擴(kuò)展機(jī)器去輕松的應(yīng)對(duì)日益增長(zhǎng)的數(shù)據(jù)量。
  • 提高并發(fā):以partition為讀寫(xiě)單位,可以多個(gè)消費(fèi)者同時(shí)消費(fèi)數(shù)據(jù),提高了消息的處理效率。
在kafka中,如果某個(gè)topic有多個(gè)partition,producer又怎么知道該將數(shù)據(jù)發(fā)往哪個(gè)partition呢?kafka中有幾個(gè)原則:
  • partition在寫(xiě)入的時(shí)候可以指定需要寫(xiě)入的partition,如果有指定,則寫(xiě)入對(duì)應(yīng)的partition。
  • 如果沒(méi)有指定partition,但是設(shè)置了數(shù)據(jù)的key,則會(huì)根據(jù)key的值hash出一個(gè)partition。
  • 如果既沒(méi)指定partition,又沒(méi)有設(shè)置key,則會(huì)輪詢(xún)選出一個(gè)partition。
保證消息不丟失是一個(gè)消息隊(duì)列中間件的基本保證,那producer在向kafka寫(xiě)入消息的時(shí)候,怎么保證消息不丟失呢?

通過(guò)上圖中的通過(guò)ACK應(yīng)答機(jī)制!在生產(chǎn)者向隊(duì)列寫(xiě)入數(shù)據(jù)的時(shí)候可以設(shè)置參數(shù)來(lái)確定是否確認(rèn)kafka接收到數(shù)據(jù),這個(gè)參數(shù)可設(shè)置的值為0、1、all。

  • 0代表producer往集群發(fā)送數(shù)據(jù)不需要等到集群的返回,不確保消息發(fā)送成功。安全性最低但是效率最高。
  • 1代表producer往集群發(fā)送數(shù)據(jù)只要leader應(yīng)答就可以發(fā)送下一條,只確保leader發(fā)送成功。
  • all代表producer往集群發(fā)送數(shù)據(jù)需要所有的follower都完成從leader的同步才會(huì)發(fā)送下一條,確保leader發(fā)送成功和所有的副本都完成備份。安全性最高,但是效率最低。
注意:如果往不存在的topic寫(xiě)數(shù)據(jù),能不能寫(xiě)入成功呢?kafka會(huì)自動(dòng)創(chuàng)建topic,分區(qū)和副本的數(shù)量根據(jù)默認(rèn)配置都是1。

2.2.2 保存數(shù)據(jù)

Producer將數(shù)據(jù)寫(xiě)入kafka后,集群就需要對(duì)數(shù)據(jù)進(jìn)行保存了!kafka將數(shù)據(jù)保存在磁盤(pán),可能在我們的一般的認(rèn)知里,寫(xiě)入磁盤(pán)是比較耗時(shí)的操作,不適合這種高并發(fā)的組件。Kafka初始會(huì)多帶帶開(kāi)辟一塊磁盤(pán)空間,順序?qū)懭霐?shù)據(jù)(效率比隨機(jī)寫(xiě)入高)。
1)Partition 結(jié)構(gòu)
Partition在服務(wù)器上的表現(xiàn)形式就是一個(gè)一個(gè)的文件夾,每個(gè)partition的文件夾下面會(huì)有多組segment文件,每組segment文件又包含.index文件、.log文件、.timeindex文件(早期版本中沒(méi)有)三個(gè)文件, log文件就實(shí)際是存儲(chǔ)message的地方,而index和timeindex文件為索引文件,用于檢索消息。
如上圖,這個(gè)partition有三組segment文件,每個(gè)log文件的大小是一樣的,但是存儲(chǔ)的message數(shù)量是不一定相等的(每條的message大小不一致)。文件的命名是以該segment最小offset來(lái)命名的,如000.index存儲(chǔ)offset為0~368795的消息,kafka就是利用分段+索引的方式來(lái)解決查找效率的問(wèn)題。
2)Message結(jié)構(gòu)

log文件就實(shí)際是存儲(chǔ)message的地方,我們?cè)趐roducer往kafka寫(xiě)入的也是一條一條的message,那存儲(chǔ)在log中的message是什么樣子的呢?消息主要包含消息體、消息大小、offset、壓縮類(lèi)型……等等!

我們重點(diǎn)需要知道的是下面三個(gè):

  • offset:offset是一個(gè)占8byte的有序id號(hào),它可以唯一確定每條消息在parition內(nèi)的位置!
  • 消息大?。合⒋笮≌加?byte,用于描述消息的大小。
  • 消息體:消息體存放的是實(shí)際的消息數(shù)據(jù)(被壓縮過(guò)),占用的空間根據(jù)具體的消息而不一樣。
3)存儲(chǔ)策略

無(wú)論消息是否被消費(fèi),kafka都會(huì)保存所有的消息。那對(duì)于舊數(shù)據(jù)有什么刪除策略呢?

  • 基于時(shí)間,默認(rèn)配置是168小時(shí)(7天)。
  • 基于大小,默認(rèn)配置是1073741824。
注意:kafka讀取特定消息的時(shí)間復(fù)雜度是O(1),所以這里刪除過(guò)期的文件并不會(huì)提高kafka的性能!

2.2.3 消費(fèi)數(shù)據(jù)

消息存儲(chǔ)在log文件后,消費(fèi)者就可以進(jìn)行消費(fèi)了。

一般消息系統(tǒng),consumer存在兩種消費(fèi)模型:

  • push:優(yōu)勢(shì)在于消息實(shí)時(shí)性高。劣勢(shì)在于沒(méi)有考慮consumer消費(fèi)能力和飽和情況,容易導(dǎo)致producer壓垮consumer。
  • pull:優(yōu)勢(shì)在可以控制消費(fèi)速度和消費(fèi)數(shù)量,保證consumer不會(huì)出現(xiàn)飽和。劣勢(shì)在于當(dāng)沒(méi)有數(shù)據(jù),會(huì)出現(xiàn)空輪詢(xún),消耗cpu。
Kafka采用的是pull模式,消費(fèi)者主動(dòng)的去kafka集群拉取消息,與producer相同的是,消費(fèi)者在拉取消息的時(shí)候也是找leader去拉取。
多個(gè)消費(fèi)者可以組成一個(gè)消費(fèi)者組(consumer group),每個(gè)消費(fèi)者組都有一個(gè)組id!同一個(gè)消費(fèi)組者的消費(fèi)者可以消費(fèi)同一topic下不同分區(qū)的數(shù)據(jù),但是不會(huì)組內(nèi)多個(gè)消費(fèi)者消費(fèi)同一分區(qū)的數(shù)據(jù)?。?!我們看下圖:
注意:圖示是消費(fèi)者組內(nèi)的消費(fèi)者小于partition數(shù)量的情況,所以會(huì)出現(xiàn)某個(gè)消費(fèi)者消費(fèi)多個(gè)partition數(shù)據(jù)的情況,消費(fèi)的速度也就不及只處理一個(gè)partition的消費(fèi)者的處理速度!如果是消費(fèi)者組的消費(fèi)者多于partition的數(shù)量,那會(huì)不會(huì)出現(xiàn)多個(gè)消費(fèi)者消費(fèi)同一個(gè)partition的數(shù)據(jù)呢?上面已經(jīng)提到過(guò)不會(huì)出現(xiàn)這種情況!多出來(lái)的消費(fèi)者不消費(fèi)任何partition的數(shù)據(jù)。所以在實(shí)際的應(yīng)用中,建議消費(fèi)者組的consumer的數(shù)量與partition的數(shù)量一致!
在保存數(shù)據(jù)的小節(jié)里面,我們聊到了partition劃分為多組segment,每個(gè)segment又包含.log、.index、.timeindex文件,存放的每條message包含offset、消息大小、消息體……我們多次提到segment和offset,查找消息的時(shí)候是怎么利用segment+offset配合查找的呢?假如現(xiàn)在需要查找一個(gè)offset為368801的message是什么樣的過(guò)程呢?我們先看看下面的圖:
  • 1)先找到offset的368801message所在的segment文件(利用二分法查找),這里找到的就是在第二個(gè)segment文件。
  • 2)打開(kāi)找到的segment中的.index文件(也就是368796.index文件,該文件起始偏移量為368796+1,我們要查找的offset為368801的message在該index內(nèi)的偏移量為368796+5=368801,所以這里要查找的相對(duì)offset為5)。由于該文件采用的是稀疏索引的方式存儲(chǔ)著相對(duì)offset及對(duì)應(yīng)message物理偏移量的關(guān)系,所以直接找相對(duì)offset為5的索引找不到,這里同樣利用二分法查找相對(duì)offset小于或者等于指定的相對(duì)offset的索引條目中最大的那個(gè)相對(duì)offset,所以找到的是相對(duì)offset為4的這個(gè)索引。
  • 3)根據(jù)找到的相對(duì)offset為4的索引確定message存儲(chǔ)的物理偏移位置為256。打開(kāi)數(shù)據(jù)文件,從位置為256的那個(gè)地方開(kāi)始順序掃描直到找到offset為368801的那條Message。
這套機(jī)制是建立在offset為有序的基礎(chǔ)上,利用segment+有序offset+稀疏索引+二分查找+順序查找等多種手段來(lái)高效的查找數(shù)據(jù)!
至此,消費(fèi)者就能拿到需要處理的數(shù)據(jù)進(jìn)行處理了。那每個(gè)消費(fèi)者又是怎么記錄自己消費(fèi)的位置呢?
在早期的版本中,消費(fèi)者將消費(fèi)到的offset維護(hù)zookeeper中,consumer每間隔一段時(shí)間上報(bào)一次,這里容易導(dǎo)致重復(fù)消費(fèi),且性能不好!在新的版本中消費(fèi)者消費(fèi)到的offset已經(jīng)直接維護(hù)在kafk集群的__consumer_offsets這個(gè)topic中!


本文作者:徐 苗(上海新炬中北團(tuán)隊(duì))

本文來(lái)源:“IT那活兒”公眾號(hào)

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/129117.html

相關(guān)文章

  • Kafka原理你真的知道嗎?

    摘要:而在服務(wù)器中應(yīng)該充分利用多線程來(lái)處理執(zhí)行邏輯。能保證所在的失效,該消息仍然可以從新選舉的中獲取,不會(huì)造成消息丟失。這意味著無(wú)需等待來(lái)自的確認(rèn)而繼續(xù)發(fā)送下一批消息。 showImg(https://segmentfault.com/img/remote/1460000018373147?w=702&h=369); 1.概述 Apache Kafka最早是由LinkedIn開(kāi)源出來(lái)的分布式...

    n7then 評(píng)論0 收藏0
  • TiDB Binlog 源碼閱讀系列文章(一)序

    摘要:總體而言,讀者需要有一定的使用經(jīng)驗(yàn),以及可以讀懂語(yǔ)言程序。內(nèi)容概要本篇作為源碼閱讀系列文章的序篇,會(huì)簡(jiǎn)單的給大家講一下后續(xù)會(huì)講哪些部分以及邏輯順序,方便大家對(duì)本系列文章有整體的了解。小結(jié)本篇文章主要介紹了源碼閱讀系列文章的目的和規(guī)劃。 作者:黃佳豪 TiDB Binlog 組件用于收集 TiDB 的 binlog,并準(zhǔn)實(shí)時(shí)同步給下游,如 TiDB、MySQL 等。該組件在功能上類(lèi)似于 ...

    whidy 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<