摘要:合庫合表數(shù)據(jù)同步在使用支撐大量數(shù)據(jù)時,經(jīng)常會選擇使用分庫分表的方案。但當將數(shù)據(jù)同步到后,通常希望邏輯上進行合庫合表。為支持合庫合表的數(shù)據(jù)同步,主要實現(xiàn)了以下的一些功能。
作者:張學程
簡介TiDB-DM(Data Migration)是用于將數(shù)據(jù)從 MySQL/MariaDB 遷移到 TiDB 的工具。該工具既支持以全量備份文件的方式將 MySQL/MariaDB 的數(shù)據(jù)導入到 TiDB,也支持通過解析執(zhí)行 MySQL/MariaDB binlog 的方式將數(shù)據(jù)增量同步到 TiDB。特別地,對于有多個 MySQL/MariaDB 實例的分庫分表需要合并后同步到同一個 TiDB 集群的場景,DM 提供了良好的支持。如果你需要從 MySQL/MariaDB 遷移到 TiDB,或者需要將 TiDB 作為 MySQL/MariaDB 的從庫,DM 將是一個非常好的選擇。
架構設計DM 是集群模式的,其主要由 DM-master、DM-worker 與 DM-ctl 三個組件組成,能夠以多對多的方式將多個上游 MySQL 實例的數(shù)據(jù)同步到多個下游 TiDB 集群,其架構圖如下:
DM-master:管理整個 DM 集群,維護集群的拓撲信息,監(jiān)控各個 DM-worker 實例的運行狀態(tài);進行數(shù)據(jù)同步任務的拆解與分發(fā),監(jiān)控數(shù)據(jù)同步任務的執(zhí)行狀態(tài);在進行合庫合表的增量數(shù)據(jù)同步時,協(xié)調(diào)各 DM-worker 上 DDL 的執(zhí)行或跳過;提供數(shù)據(jù)同步任務管理的統(tǒng)一入口。
DM-worker:與上游 MySQL 實例一一對應,執(zhí)行具體的全量、增量數(shù)據(jù)同步任務;將上游 MySQL 的 binlog 拉取到本地并持久化保存;根據(jù)定義的數(shù)據(jù)同步任務,將上游 MySQL 數(shù)據(jù)全量導出成 SQL 文件后導入到下游 TiDB,或解析本地持久化的 binlog 后增量同步到下游 TiDB;編排 DM-master 拆解后的數(shù)據(jù)同步子任務,監(jiān)控子任務的運行狀態(tài)。
DM-ctl:命令行交互工具,通過連接到 DM-master 后,執(zhí)行 DM 集群的管理與數(shù)據(jù)同步任務的管理。
實現(xiàn)原理 數(shù)據(jù)遷移流程單個 DM 集群可以同時運行多個數(shù)據(jù)同步任務;對于每一個同步任務,可以拆解為多個子任務同時由多個 DM-worker 節(jié)點承擔,其中每個 DM-worker 節(jié)點負責同步來自對應的上游 MySQL 實例的數(shù)據(jù)。對于單個 DM-worker 節(jié)點上的單個數(shù)據(jù)同步子任務,其數(shù)據(jù)遷移流程如下,其中上部的數(shù)據(jù)流向為全量數(shù)據(jù)遷移、下部的數(shù)據(jù)流向為增量數(shù)據(jù)同步:
在每個 DM-worker 節(jié)點內(nèi)部,對于特定的數(shù)據(jù)同步子任務,主要由 dumper、loader、relay 與 syncer(binlog replication)等數(shù)據(jù)同步處理單元執(zhí)行具體的數(shù)據(jù)同步操作。
對于全量數(shù)據(jù)遷移,DM 首先使用 dumper 單元從上游 MySQL 中將表結構與數(shù)據(jù)導出成 SQL 文件;然后使用 loader 單元讀取這些 SQL 文件并同步到下游 TiDB。
對于增量數(shù)據(jù)同步,首先使用 relay 單元作為 slave 連接到上游 MySQL 并拉取 binlog 數(shù)據(jù)后作為 relay log 持久化存儲在本地,然后使用 syncer 單元讀取這些 relay log 并解析構造成 SQL 語句后同步到下游 TiDB。這個增量同步的過程與 MySQL 的主從復制類似,主要區(qū)別在于在 DM 中,本地持久化的 relay log 可以同時供多個不同子任務的 syncer 單元所共用,避免了多個任務需要重復從上游 MySQL 拉取 binlog 的問題。
數(shù)據(jù)遷移并發(fā)模型為加快數(shù)據(jù)導入速度,在 DM 中不論是全量數(shù)據(jù)遷移,還是增量數(shù)據(jù)同步,都在其中部分階段使用了并發(fā)處理。
對于全量數(shù)據(jù)遷移,在導出階段,dumper 單元調(diào)用 mydumper 導出工具執(zhí)行實際的數(shù)據(jù)導出操作,對應的并發(fā)模型可以直接參考 mydumper 的源碼。在使用 loader 單元執(zhí)行的導入階段,對應的并發(fā)模型結構如下:
使用 mydumper 執(zhí)行導出時,可以通過 --chunk-filesize 等參數(shù)將單個表拆分成多個 SQL 文件,這些 SQL 文件對應的都是上游 MySQL 某一個時刻的靜態(tài)快照數(shù)據(jù),且各 SQL 文件間的數(shù)據(jù)不存在關聯(lián)。因此,在使用 loader 單元執(zhí)行導入時,可以直接在一個 loader 單元內(nèi)啟動多個 worker 工作協(xié)程,由各 worker 協(xié)程并發(fā)、獨立地每次讀取一個待導入的 SQL 文件進行導入。即 loader 導入階段,是以 SQL 文件級別粒度并發(fā)進行的。在 DM 的任務配置中,對于 loader 單元,其中的 pool-size 參數(shù)即用于控制此處 worker 協(xié)程數(shù)量。
對于增量數(shù)據(jù)同步,在從上游拉取 binlog 并持久化到本地的階段,由于上游 MySQL 上 binlog 的產(chǎn)生與發(fā)送是以 stream 形式進行的,因此這部分只能串行處理。在使用 syncer 單元執(zhí)行的導入階段,在一定的限制條件下,可以執(zhí)行并發(fā)導入,對應的模型結構如下:
當 syncer 讀取與解析本地 relay log 時,與從上游拉取 binlog 類似,是以 stream 形式進行的,因此也只能串行處理。當 syncer 解析出各 binlog event 并構造成待同步的 job 后,則可以根據(jù)對應行數(shù)據(jù)的主鍵、索引等信息經(jīng)過 hash 計算后分發(fā)到多個不同的待同步 job channel 中;在 channel 的另一端,與各個 channel 對應的 worker 協(xié)程并發(fā)地從 channel 中取出 job 后同步到下游的 TiDB。即 syncer 導入階段,是以 binlog event 級別粒度并發(fā)進行的。在 DM 的任務配置中,對于 syncer 單元,其中的 worker-count 參數(shù)即用于控制此處 worker 協(xié)程數(shù)量。
但 syncer 并發(fā)同步到下游 TiDB 時,存在一些限制,主要包括:
對于 DDL,由于會變更下游的表結構,因此必須確保在舊表結構對應的 DML 都同步完成后,才能進行同步。在 DM 中,當解析 binlog event 得到 DDL 后,會向每一個 job channel 發(fā)送一個特殊的 flush job;當各 worker 協(xié)程遇到 flush job 時,會立刻向下游 TiDB 同步之前已經(jīng)取出的所有 job;等各 job channel 中的 job 都同步到下游 TiDB 后,開始同步 DDL;等待 DDL 同步完成后,繼續(xù)同步后續(xù)的 DML。即 DDL 不能與 DML 并發(fā)同步,且 DDL 之前與之后的 DML 也不能并發(fā)同步。sharding 場景下 DDL 的同步處理見后文。
對于 DML,多條 DML 可能會修改同一行的數(shù)據(jù),甚至是主鍵。如果并發(fā)地同步這些 DML,則可能造成同步后數(shù)據(jù)的不一致。DM 中對于 DML 之間的沖突檢測與處理,與 TiDB-Binlog 中的處理類似,具體原理可以閱讀《TiDB EcoSystem Tools 原理解讀(一)TiDB-Binlog 架構演進與實現(xiàn)原理》中關于 Drainer 內(nèi) SQL 之間沖突檢測的討論。
合庫合表數(shù)據(jù)同步在使用 MySQL 支撐大量數(shù)據(jù)時,經(jīng)常會選擇使用分庫分表的方案。但當將數(shù)據(jù)同步到 TiDB 后,通常希望邏輯上進行合庫合表。DM 為支持合庫合表的數(shù)據(jù)同步,主要實現(xiàn)了以下的一些功能。
table router為說明 DM 中 table router(表名路由)功能,先看如下圖所示的一個例子:
在這個例子中,上游有 2 個 MySQL 實例,每個實例有 2 個邏輯庫,每個庫有 2 個表,總共 8 個表。當同步到下游 TiDB 后,希望所有的這 8 個表最終都合并同步到同一個表中。
但為了能將 8 個來自不同實例、不同庫且有不同名的表同步到同一個表中,首先要處理的,就是要能根據(jù)某些定義好的規(guī)則,將來自不同表的數(shù)據(jù)都路由到下游的同一個表中。在 DM 中,這類規(guī)則叫做 router-rules。對于上面的示例,其規(guī)則如下:
name-of-router-rule: schema-pattern: "schema_*" table-pattern: "table_*" target-schema: "schema" target-table: "table"
name-of-router-rule:規(guī)則名,用戶指定。當有多個上游實例需要使用相同的規(guī)則時,可以只定義一條規(guī)則,多個不同的實例通過規(guī)則名進行引用。
schema-pattern:用于匹配上游庫(schema)名的模式,支持在尾部使用通配符(*)。這里使用 schema_* 即可匹配到示例中的兩個庫名。
table-pattern:用于匹配上游表名的模式,與 schema-pattern 類似。這里使用 table_* 即可匹配到示例中的兩個表名。
target-schema:目標庫名。對于庫名、表名匹配的數(shù)據(jù),將被路由到這個庫中。
target-table:目標表名。對于庫名、表名匹配的數(shù)據(jù),將被路由到 target-schema 庫下的這個表中。
在 DM 內(nèi)部實現(xiàn)上,首先根據(jù) schema-pattern / table-pattern 構造對應的 trie 結構,并將規(guī)則存儲在 trie 節(jié)點中;當有 SQL 需要同步到下游時,通過使用上游庫名、表名查詢 trie 即可得到對應的規(guī)則,并根據(jù)規(guī)則替換原 SQL 中的庫名、表名;通過向下游 TiDB 執(zhí)行替換后的 SQL 即完成了根據(jù)表名的路由同步。有關 router-rules 規(guī)則的具體實現(xiàn),可以閱讀 TiDB-Tools 下的 table-router pkg 源代碼。
column mapping有了 table router 功能,已經(jīng)可以完成基本的合庫合表數(shù)據(jù)同步了。但在數(shù)據(jù)庫中,我們經(jīng)常會使用自增類型的列作為主鍵。如果多個上游分表的主鍵各自獨立地自增,將它們合并同步到下游后,就很可能會出現(xiàn)主鍵沖突,造成數(shù)據(jù)的不一致。我們可看一個如下的例子:
在這個例子中,上游 4 個需要合并同步到下游的表中,都存在 id 列值為 1 的記錄。假設這個 id 列是表的主鍵。在同步到下游的過程中,由于相關更新操作是以 id 列作為條件來確定需要更新的記錄,因此會造成后同步的數(shù)據(jù)覆蓋前面已經(jīng)同步過的數(shù)據(jù),導致部分數(shù)據(jù)的丟失。
在 DM 中,我們通過 column mapping 功能在數(shù)據(jù)同步的過程中依據(jù)指定規(guī)則對相關列的數(shù)據(jù)進行轉(zhuǎn)換改寫來避免數(shù)據(jù)沖突與丟失。對于上面的示例,其中 MySQL 實例 1 的 column mapping 規(guī)則如下:
mapping-rule-of-instance-1: schema-pattern: "schema_*" table-pattern: "table_*" expression: "partition id" source-column: "id" target-column: "id" arguments: ["1", "schema_", "table_"]
mapping-rule-of-instance-1:規(guī)則名,用戶指定。由于不同的上游 MySQL 實例需要轉(zhuǎn)換得到不同的值,因此通常每個 MySQL 實例使用一條專有的規(guī)則。
schema-pattern / table-pattern:上游庫名、表名匹配模式,與 router-rules 中的對應配置項一致。
expression:進行數(shù)據(jù)轉(zhuǎn)換的表達式名。目前常用的表達式即為 "partition id",有關該表達式的具體說明見下文。
source-column:轉(zhuǎn)換表達式的輸入數(shù)據(jù)對應的來源列名,"id" 表示這個表達式將作用于表中名為 id 的列。暫時只支持對單個來源列進行數(shù)據(jù)轉(zhuǎn)換。
target-column:轉(zhuǎn)換表達式的輸出數(shù)據(jù)對應的目標列名,與 source-column 類似。暫時只支持對單個目標列進行數(shù)據(jù)轉(zhuǎn)換,且對應的目標列必須已經(jīng)存在。
arguments:轉(zhuǎn)換表達式所依賴的參數(shù)。參數(shù)個數(shù)與含義依具體表達式而定。
partition id 是目前主要受支持的轉(zhuǎn)換表達式,其通過為 bigint 類型的值增加二進制前綴來解決來自不同表的數(shù)據(jù)合并同步后可能產(chǎn)生沖突的問題。partition id 的 arguments 包括 3 個參數(shù),分別為:
MySQL 實例 ID:標識數(shù)據(jù)的來源 MySQL 實例,用戶自由指定。如 "1" 表示匹配該規(guī)則的數(shù)據(jù)來自于 MySQL 實例 1,且這個標識將被轉(zhuǎn)換成數(shù)值后以二進制的形式作為前綴的一部分添加到轉(zhuǎn)換后的值中。
庫名前綴:標識數(shù)據(jù)的來源邏輯庫。如 "schema_" 應用于 schema_2 邏輯庫時,表示去除前綴后剩下的部分(數(shù)字 2)將以二進制的形式作為前綴的一部分添加到轉(zhuǎn)換后的值中。
表名前綴:標識數(shù)據(jù)的來源表。如 "table_" 應用于 table_3 表時,表示去除前綴后剩下的部分(數(shù)字 3)將以二進制的形式作為前綴的一部分添加到轉(zhuǎn)換后的值中。
各部分在經(jīng)過轉(zhuǎn)換后的數(shù)值中的二進制分布如下圖所示(各部分默認所占用的 bits 位數(shù)如圖所示):
假如轉(zhuǎn)換前的原始數(shù)據(jù)為 123,且有如上的 arguments 參數(shù)設置,則轉(zhuǎn)換后的值為:
1<<(64-1-4) | 2<<(64-1-4-7) | 3<<(64-1-4-7-8) | 123
另外,arguments 中的 3 個參數(shù)均可設置為空字符串(""),即表示該部分不被添加到轉(zhuǎn)換后的值中,且不占用額外的 bits。比如將其設置為["1", "", "table_"],則轉(zhuǎn)換后的值為:
1 << (64-1-4) | 3<< (64-1-4-8) | 123
有關 column mapping 功能的具體實現(xiàn),可以閱讀 TiDB-Tools 下的 column-mapping pkg 源代碼。
sharding DDL有了 table router 和 column mapping 功能,DML 的合庫合表數(shù)據(jù)同步已經(jīng)可以正常進行了。但如果在增量數(shù)據(jù)同步的過程中,上游待合并的分表上執(zhí)行了 DDL 操作,則可能出現(xiàn)問題。我們先來看一個簡化后的在分表上執(zhí)行 DDL 的例子。
在上圖的例子中,分表的合庫合表簡化成了上游只有兩個 MySQL 實例,每個實例內(nèi)只有一個表。假設在開始數(shù)據(jù)同步時,將兩個分表的表結構 schema 的版本記為 schema V1,將 DDL 執(zhí)行完成后的表結構 schema 的版本記為 schema V2。
現(xiàn)在,假設數(shù)據(jù)同步過程中,從兩個上游分表收到的 binlog 數(shù)據(jù)有如下的時序:
開始同步時,從兩個分表收到的都是 schema V1 的 DML。
在 t1 時刻,收到實例 1 上分表的 DDL。
從 t2 時刻開始,從實例 1 收到的是 schema V2 的 DML;但從實例 2 收到的仍是 schema V1 的 DML。
在 t3 時刻,收到實例 2 上分表的 DDL。
從 t4 時刻開始,從實例 2 收到的也是 schema V2 的 DML。
假設在數(shù)據(jù)同步過程中,不對分表的 DDL 進行處理。當將實例 1 的 DDL 同步到下游后,下游的表結構會變更成為 schema V2。但對于實例 2,在 t2 時刻到 t3 時刻這段時間內(nèi)收到的仍然是 schema V1 的 DML。當嘗試把這些與 schema V1 對應的 DML 同步到下游時,就會由于 DML 與表結構的不一致而發(fā)生錯誤,造成數(shù)據(jù)無法正確同步。
繼續(xù)使用上面的例子,來看看我們在 DM 中是如何處理合庫合表過程中的 DDL 同步的。
在這個例子中,DM-worker-1 用于同步來自 MySQL 實例 1 的數(shù)據(jù),DM-worker-2 用于同步來自 MySQL 實例 2 的數(shù)據(jù),DM-master 用于協(xié)調(diào)多個 DM-worker 間的 DDL 同步。從 DM-worker-1 收到 DDL 開始,簡化后的 DDL 同步流程為:
DM-worker-1 在 t1 時刻收到來自 MySQL 實例 1 的 DDL,自身暫停該 DDL 對應任務的 DDL 及 DML 數(shù)據(jù)同步,并將 DDL 相關信息發(fā)送給 DM-master。
DM-master 根據(jù) DDL 信息判斷需要協(xié)調(diào)該 DDL 的同步,為該 DDL 創(chuàng)建一個鎖,并將 DDL 鎖信息發(fā)回給 DM-worker-1,同時將 DM-worker-1 標記為這個鎖的 owner。
DM-worker-2 繼續(xù)進行 DML 的同步,直到在 t3 時刻收到來自 MySQL 實例 2 的 DDL,自身暫停該 DDL 對應任務的數(shù)據(jù)同步,并將 DDL 相關信息發(fā)送給 DM-master。
DM-master 根據(jù) DDL 信息判斷該 DDL 對應的鎖信息已經(jīng)存在,直接將對應鎖信息發(fā)回給 DM-worker-2。
DM-master 根據(jù)啟動任務時的配置信息、上游 MySQL 實例分表信息、部署拓撲信息等,判斷得知已經(jīng)收到了需要合表的所有上游分表的該 DDL,請求 DDL 鎖的 owner(DM-worker-1)向下游同步執(zhí)行該 DDL。
DM-worker-1 根據(jù) step 2 時收到的 DDL 鎖信息驗證 DDL 執(zhí)行請求;向下游執(zhí)行 DDL,并將執(zhí)行結果反饋給 DM-master;若執(zhí)行 DDL 成功,則自身開始繼續(xù)同步后續(xù)的(從 t2 時刻對應的 binlog 開始的)DML。
DM-master 收到來自 owner 執(zhí)行 DDL 成功的響應,請求在等待該 DDL 鎖的所有其他 DM-worker(DM-worker-2)忽略該 DDL,直接繼續(xù)同步后續(xù)的(從 t4 時刻對應的 binlog 開始的)DML。
根據(jù)上面 DM 處理多個 DM-worker 間的 DDL 同步的流程,歸納一下 DM 內(nèi)處理多個 DM-worker 間 sharding DDL 同步的特點:
根據(jù)任務配置與 DM 集群部署拓撲信息,在 DM-master 內(nèi)建立一個需要協(xié)調(diào) DDL 同步的邏輯 sharding group,group 中的成員為處理該任務拆解后各子任務的 DM-worker。
各 DM-worker 在從 binlog event 中獲取到 DDL 后,會將 DDL 信息發(fā)送給 DM-master。
DM-master 根據(jù)來自 DM-worker 的 DDL 信息及 sharding group 信息創(chuàng)建/更新 DDL 鎖。
如果 sharding group 的所有成員都收到了某一條 DDL,則表明上游分表在該 DDL 執(zhí)行前的 DML 都已經(jīng)同步完成,可以執(zhí)行 DDL,并繼續(xù)后續(xù)的 DML 同步。
上游分表的 DDL 在經(jīng)過 table router 轉(zhuǎn)換后,對應需要在下游執(zhí)行的 DDL 應該一致,因此僅需 DDL 鎖的 owner 執(zhí)行一次即可,其他 DM-worker 可直接忽略對應的 DDL。
從 DM 處理 DM-worker 間 sharding DDL 同步的特點,可以看出該功能存在以下一些限制:
上游的分表必須以相同的順序執(zhí)行(table router 轉(zhuǎn)換后相同的)DDL,比如表 1 先增加列 a 后再增加列 b,而表 2 先增加列 b 后再增加列 a,這種不同順序的 DDL 執(zhí)行方式是不支持的。
一個邏輯 sharding group 內(nèi)的所有 DM-worker 對應的上游分表,都應該執(zhí)行對應的 DDL,比如其中有 DM-worker-2 對應的上游分表未執(zhí)行 DDL,則其他已執(zhí)行 DDL 的 DM-worker 都會暫停同步任務,等待 DM-worker-2 收到對應上游的 DDL。
由于已經(jīng)收到的 DDL 的 DM-worker 會暫停任務以等待其他 DM-worker 收到對應的 DDL,因此數(shù)據(jù)同步延遲會增加。
增量同步開始時,需要合并的所有上游分表結構必須一致,才能確保來自不同分表的 DML 可以同步到一個確定表結構的下游,也才能確保后續(xù)各分表的 DDL 能夠正確匹配與同步。
在上面的示例中,每個 DM-worker 對應的上游 MySQL 實例中只有一個需要進行合并的分表。但在實際場景下,一個 MySQL 實例可能有多個分庫內(nèi)的多個分表需要進行合并,比如前面介紹 table router 與 column mapping 功能時的例子。當一個 MySQL 實例中有多個分表需要合并時,sharding DDL 的協(xié)調(diào)同步過程增加了更多的復雜性。
假設同一個 MySQL 實例中有 table_1 和 table_2 兩個分表需要進行合并,如下圖:
由于數(shù)據(jù)來自同一個 MySQL 實例,因此所有數(shù)據(jù)都是從同一個 binlog 流中獲得。在這個例子中,時序如下:
開始同步時,兩個分表收到的數(shù)據(jù)都是 schema V1 的 DML。
在 t1 時刻,收到了 table_1 的 DDL。
從 t2 時刻到 t3 時刻,收到的數(shù)據(jù)同時包含 table_1 schema V2 的 DML 及 table_2 schema V1 的 DML。
在 t3 時刻,收到了 table_2 的 DDL。
從 t4 時刻開始,兩個分表收到的數(shù)據(jù)都是 schema V2 的 DML。
假設在數(shù)據(jù)同步過程中不對 DDL 進行特殊處理,當 table_1 的 DDL 同步到下游、變更下游表結構后,table_2 schema V1 的 DML 將無法正常同步。因此,在單個 DM-worker 內(nèi)部,我們也構造了與 DM-master 內(nèi)類似的邏輯 sharding group,但 group 的成員是同一個上游 MySQL 實例的不同分表。
但 DM-worker 內(nèi)協(xié)調(diào)處理 sharding group 的同步不能完全與 DM-master 處理時一致,主要原因包括:
當收到 table_1 的 DDL 時,同步不能暫停,需要繼續(xù)解析 binlog 才能獲得后續(xù) table_2 的 DDL,即需要從 t2 時刻繼續(xù)向前解析直到 t3 時刻。
在繼續(xù)解析 t2 時刻到 t3 時刻的 binlog 的過程中,table_1 的 schema V2 的 DML 不能向下游同步;但在 sharding DDL 同步并執(zhí)行成功后,這些 DML 需要同步到下游。
在 DM 中,簡化后的 DM-worker 內(nèi) sharding DDL 同步流程為:
在 t1 時刻收到 table_1 的 DDL,記錄 DDL 信息及此時的 binlog 位置點信息。
繼續(xù)向前解析 t2 時刻到 t3 時刻的 binlog。
對于屬于 table_1 的 schema V2 DML,忽略;對于屬于 table_2 的 schema V1 DML,正常同步到下游。
在 t3 時刻收到 table_2 的 DDL,記錄 DDL 信息及此時的 binlog 位置點信息。
根據(jù)同步任務配置信息、上游庫表信息等,判斷該 MySQL 實例上所有分表的 DDL 都已經(jīng)收到;將 DDL 同步到下游執(zhí)行、變更下游表結構。
設置新的 binlog 流的解析起始位置點為 step 1 時保存的位置點。
重新開始解析從 t2 時刻到 t3 時刻的 binlog。
對于屬于 table_1 的 schema V2 DML,正常同步到下游;對于屬于 table_2 的 shema V1 DML,忽略。
解析到達 step 4 時保存的 binlog 位置點,可得知在 step 3 時被忽略的所有 DML 都已經(jīng)重新同步到下游。
繼續(xù)從 t4 時刻對應的 binlog 位置點正常同步。
從上面的分析可以知道,DM 在處理 sharding DDL 同步時,主要通過兩級 sharding group 來進行協(xié)調(diào)控制,簡化的流程為:
各 DM-worker 獨立地協(xié)調(diào)對應上游 MySQL 實例內(nèi)多個分表組成的 sharding group 的 DDL 同步。
當 DM-worker 內(nèi)所有分表的 DDL 都收到時,向 DM-master 發(fā)送 DDL 相關信息。
DM-master 根據(jù) DM-worker 發(fā)來的 DDL 信息,協(xié)調(diào)由各 DM-worker 組成的 sharing group 的 DDL 同步。
當 DM-master 收到所有 DM-worker 的 DDL 信息時,請求 DDL lock 的 owner(某個 DM-worker)執(zhí)行 DDL。
owner 執(zhí)行 DDL,并將結果反饋給 DM-master;自身開始重新同步在內(nèi)部協(xié)調(diào) DDL 同步過程中被忽略的 DML。
當 DM-master 發(fā)現(xiàn) owner 執(zhí)行 DDL 成功后,請求其他所有 DM-worker 開始繼續(xù)同步。
其他所有 DM-worker 各自開始重新同步在內(nèi)部協(xié)調(diào) DDL 同步過程中被忽略的 DML。
所有 DM-worker 在重新同步完成被忽略的 DML 后,繼續(xù)正常同步。
數(shù)據(jù)同步過濾在進行數(shù)據(jù)同步的過程中,有時可能并不需要將上游所有的數(shù)據(jù)都同步到下游,這時一般期望能在同步過程中根據(jù)某些規(guī)則,過濾掉部分不期望同步的數(shù)據(jù)。在 DM 中,支持 2 種不同級別的同步過濾方式。
庫表黑白名單DM 在 dumper、loader、syncer 三個處理單元中都支持配置規(guī)則只同步/不同步部分庫或表。
對于 dumper 單元,其實際調(diào)用 mydumper 來 dump 上游 MySQL 的數(shù)據(jù)。比如只期望導出 test 庫中的 t1、t2 兩個表的數(shù)據(jù),則可以為 dumper 單元配置如下規(guī)則:
name-of-dump-rule: extra-args: "-B test -T t1,t2"
name-of-dump-rule:規(guī)則名,用戶指定。當有多個上游實例需要使用相同的規(guī)則時,可以只定義一條規(guī)則,多個不同的實例通過規(guī)則名進行引用。
extra-args:dumper 單元額外參數(shù)。除 dumper 單元中明確定義的配置項外的其他所有 mydumper 配置項都通過此參數(shù)傳入,格式與使用 mydumper 時一致。
有關 mydumper 對庫表黑白名單的支持,可查看 mydumper 的參數(shù)及 mydumper 的源碼。
對于 loader 和 syncer 單元,其對應的庫表黑白名單規(guī)則為 black-white-list。假設只期望同步 test 庫中的 t1、t2 兩個表的數(shù)據(jù),則可配置如下規(guī)則:
name-of-bwl-rule: do-tables: - db-name: "test" tbl-name: "t1" - db-name: "test" tbl-name: "t2"
示例中只使用了該規(guī)則的部分配置項,完整的配置項及各配置項的含義,可閱讀該功能對應的用戶文檔。DM 中該規(guī)則與 MySQL 的主從同步過濾規(guī)則類似,因此也可參考 Evaluation of Database-Level Replication and Binary Logging Options 與 Evaluation of Table-Level Replication Options。
對于 loader 單元,在解析 SQL 文件名獲得庫名表名后,會與配置的黑白名單規(guī)則進行匹配,如果匹配結果為不需要同步,則會忽略對應的整個 SQL 文件。對于 syncer 單元,在解析 binlog 獲得庫名表名后,會與配置的黑白名單規(guī)則進行匹配,如果匹配結果為不需要同步,則會忽略對應的(部分)binlog event 數(shù)據(jù)。
binlog event 過濾在進行增量數(shù)據(jù)同步時,有時會期望過濾掉某些特定類型的 binlog event,兩個典型的場景包括:
上游執(zhí)行 TRUNCATE TABLE 時不希望清空下游表中的數(shù)據(jù)。
上游分表上執(zhí)行 DROP TABLE 時不希望 DROP 下游合并后的表。
在 DM 中支持根據(jù) binlog event 的類型進行過濾,對于需要過濾 TRUNCATE TABLE 與 DROP TABLE 的場景,可配置規(guī)則如下:
name-of-filter-rule: ? schema-pattern: "test_*" ? table-pattern: "t_*" ? events: ["truncate table", "drop table"] ? action: Ignore
規(guī)則的匹配模式與 table router、column mapping 類似,具體的配置項可閱讀該功能對應的用戶文檔。
在實現(xiàn)上,當解析 binlog event 獲得庫名、表名及 binlog event 類型后,與配置的規(guī)則進行匹配,并在匹配后依據(jù) action 配置項來決定是否需要進行過濾。有關 binlog event 過濾功能的具體實現(xiàn),可以閱讀 TiDB-Tools 下的 binlog-filter pkg 源代碼。
文章版權歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/17872.html
摘要:設計從年開始提供全量導入工具,它以多線程操作錯誤重試斷點續(xù)傳以及修改一些專屬配置來提升數(shù)據(jù)導入速度。此外,多線程的線上導入也代表資料是亂序插入的,新的數(shù)據(jù)范圍會與舊的重疊?,F(xiàn)時只支持經(jīng)導出的備份。此外亦同時將文件分割為大小差不多的區(qū)塊默認。 作者:Kenny Chan 簡介 TiDB-Lightning Toolset 是一套快速全量導入 SQL dump 文件到 TiDB 集群的工具...
閱讀 4388·2021-11-22 09:34
閱讀 2703·2021-11-12 10:36
閱讀 753·2021-08-18 10:23
閱讀 2649·2019-08-30 15:55
閱讀 3132·2019-08-30 15:53
閱讀 2093·2019-08-30 15:44
閱讀 1370·2019-08-29 15:37
閱讀 1418·2019-08-29 13:04