摘要:宋體在這場戰(zhàn)疫中,快杰云主機歷經(jīng)了多項考驗,在計算網(wǎng)絡存儲各方面均具備優(yōu)異性能。宋體宋體宋體快杰云主機的優(yōu)異表現(xiàn)依托于產(chǎn)品的技術優(yōu)化,來看一組快杰云主機的配置參數(shù)搭載最新硬盤網(wǎng)絡,并通過最新的智能網(wǎng)卡提供硬件卸載。
新冠肺炎催生了辦公、醫(yī)療、教育等行業(yè)的“線上解決”,加速了各行業(yè)與“云”的結合,也對不少服務企業(yè)提出了新的考驗:持續(xù)攀登的高并發(fā)、多連接,需要更加高性能穩(wěn)定的云平臺支撐,確保不宕機、不卡斷以及流暢穩(wěn)定的云上體驗。
在這場戰(zhàn)“疫”中,UCloud快杰云主機歷經(jīng)了多項考驗,在計算、網(wǎng)絡、存儲各方面均具備優(yōu)異性能。其中,為了響應“停課不停學”的號召,快杰云主機為小禾科技線上教育直播平臺提供了高性能穩(wěn)定的云資源支持,同時UCloud還免費提供直播帶寬和流量等資源,保障高并發(fā)場景下直播平臺及課程的順利進行。
?
快杰云主機的優(yōu)異表現(xiàn)依托于產(chǎn)品的技術優(yōu)化,來看一組快杰云主機的配置參數(shù):搭載Intel最新Cascade Lake CPU、NVMe SSD硬盤、25G RDMA網(wǎng)絡,并通過最新的智能網(wǎng)卡提供硬件卸載。 在這其中,每一項參數(shù)優(yōu)化均經(jīng)歷了諸多思路重建、革舊換新的技術更迭。
下面我們就來聊聊快杰云主機的“破局”之路。
一、存儲“破局”
快杰云主機搭載的NVMe SSD硬盤,采用64層3DNAND,支持8TB/s高速TRIM。支持性能出色的同時,NVMe SSD硬盤通過動態(tài)精確能耗控制,能源效率也比前代提升38%。
國內專業(yè)云資源選型服務平臺 CloudBest 實驗室的報告中(阿里云、騰訊云、UCloud 、華為云云主機對比測試報告 ),關于“磁盤性能” 的測試結果如下:
圖:隊列深度7*16的【隨機讀寫】&【平均時延】
可以看到,快杰云主機的I/O讀寫能力對比其他云廠商最高可達到10倍 的差距,平均時延可降低近6倍 ,磁盤性能的優(yōu)勢非常出眾。
磁盤性能對于云主機來講是非常重要的一個參數(shù),快杰云主機在云盤優(yōu)化方面做了很多工作,我們將這些工作用六個字來總結:要致富、先修路。
1、更高效的存儲架構:NVMe筑基
要修路,先筑基。從泥濘路徑到柏油馬路,決定的是道路的基礎質量保障,并且基礎架構設施的質量提升足以促進產(chǎn)品性能產(chǎn)生大幅度的飛躍。
同理,在快杰云主機云硬盤的基礎架構上,采用的便是行業(yè)內最優(yōu)的NVMe存儲架構 。
與傳統(tǒng)的SATA架構不同的是,NVMe傳輸協(xié)議在誕生之初就充分利用了PCIe SSD的低延時以及并行性優(yōu)勢,成為計算存儲行業(yè)的大熱趨勢。
NVMe SSD比SATA快在哪里呢?舉個例子,市面上性能不錯的SATA SSD,在隊列深度上可以達到32,然而這也是AHCI所能做到的極限罷了。而PCIe SSD下的隊列深度則需達到128,甚至是256才能夠發(fā)揮出最高的IOPS性能,NVMe解決了這個問題——在NVMe下,最大的隊列深度可達64K,此外,NVMe的隊列數(shù)量也從AHCI的1提高到了64K。
圖:NVME&AHCI隊列深度對比
同時,PCIe主控與CPU直接相連,對比SATA主控通過控制器中轉再連接CPU的方式, PCIe SSD因此具備更低的時延??梢钥吹?,對比SATA,PCIe接口本身在性能上具備更高的優(yōu)勢,再加上NVMe具有比AHCI更深、更寬的命令隊列,NVMe SSD成為行業(yè)技術大勢也就不足為奇了。
這便是快杰云主機云盤優(yōu)化工作的第一步,NVME筑基。
2、 更寬闊的通信道路:25G以太網(wǎng)加速
道路基礎修建好后,還有一個問題:如何最大化地提升道路通行速率呢?從單行道變?yōu)榘塑嚨澜^對是捷徑之一。
同樣,在快杰云主機云盤優(yōu)化的工作中,我們采用了25G以太網(wǎng)絡替代傳統(tǒng)10G以太網(wǎng),大大提升了存儲數(shù)據(jù)傳輸?shù)乃俾省?/strong>
目前大部分數(shù)據(jù)中心主要是基于10G以太網(wǎng)架構,隨著互聯(lián)網(wǎng)下數(shù)據(jù)的爆發(fā)式增長,數(shù)據(jù)中心必須通過增加與現(xiàn)有基礎設施并行的帶寬能力實現(xiàn)擴展,從而有能力處理不斷增大的數(shù)據(jù)負載。而25G便是下一代數(shù)據(jù)中心網(wǎng)絡帶寬和信道容量擴展的新方向。
相比10G,25G以太網(wǎng)具有增強計算和存儲效率的優(yōu)點,能夠提供帶寬更高、速度更快的連接,我們可以把它看做加速2.5倍的10G以太網(wǎng) 。此外,可以運行兩個25G通道實現(xiàn)50G,或運行四個通道實現(xiàn)100G,并且25G完全兼容10G以太網(wǎng)的相關物理標準,可以實現(xiàn)新舊應用的平滑遷移。
圖:25G以太網(wǎng)&10G以太網(wǎng)對比
25G以太網(wǎng)之于10G以太網(wǎng)便是單行道到八車道的飛躍,網(wǎng)絡帶寬能力的大幅提升幫助快杰云主機實現(xiàn)數(shù)據(jù)傳輸?shù)募铀?,從而助力磁盤性能提升。
3、更輕量級的傳輸路徑:RDMA降低延遲
近兩年國家大力普及高速公路ETC取代傳統(tǒng)的人工收費站模式,司機無需停車便可實現(xiàn)快速感應過車。與傳統(tǒng)收費模式相比,ETC耗時不到兩秒,通行能力是人工收費通道的5至10倍??梢灶A見到,一輛車可提高5-10倍的效率,那么對整條高速路而言,就會是極大的通行速率提升。
我們這里說到的RDMA便具備類似的功能。 RDMA是一類通信協(xié)議,也是近幾年在云計算/大數(shù)據(jù)領域非常火的一項新技術,它的全稱為遠程直接數(shù)據(jù)存取,就是為了解決網(wǎng)絡傳輸中服務器端數(shù)據(jù)處理的延遲而產(chǎn)生的。
在詳細介紹RDMA功能之前,先來了解下傳統(tǒng)TCP/IP通信模式的瓶頸。
傳統(tǒng)的TCP/IP網(wǎng)絡通信通過內核發(fā)送/接收消息 ,數(shù)據(jù)發(fā)送方需要將數(shù)據(jù)從用戶應用空間Buffer拷貝到內核空間的Socket Buffer中,并在內核空間中進行添加數(shù)據(jù)包頭、數(shù)據(jù)封裝等一系列操作。同樣,數(shù)據(jù)接收方也需要在內核進行大量數(shù)據(jù)包解析工作,并第二次拷貝到相應位置的用戶空間Buffer。
圖:TCP/IP&RDMA傳輸原理對比示意
在這樣復雜的傳輸過程中,內核承擔了極大的壓力,一旦遇到大量數(shù)據(jù)傳輸?shù)那闆r,勢必會造成硬盤I/O讀寫能力的延遲。
RDMA則通過網(wǎng)絡把資料直接傳入計算機的存儲區(qū),將數(shù)據(jù)從一個系統(tǒng)快速移動到遠程系統(tǒng)存儲器中,不會對內核造成太大影響。RDMA消除了外部存儲器復制和上下文切換的開銷,因而能解放內存帶寬和CPU周期用于改進應用系統(tǒng)性能。RDMA作為快杰云主機后端存儲的通信協(xié)議,實現(xiàn)收發(fā)包卸載到硬件,使得RSSD云盤的延遲降低到0.1毫秒, 從而大幅度降低數(shù)據(jù)處理的延時。
簡單來講,RDMA好比是ETC,省去了停車、溝通、繳費等復雜的步驟,避免成為數(shù)據(jù)傳輸中的瓶頸,形成一個更輕量級的傳輸路徑。
除此之外,針對虛擬化IO路徑的性能瓶頸問題,我們使用SPDK VHost代替QEMU,實現(xiàn)虛機到存儲客戶端的數(shù)據(jù)零拷貝;在存儲引擎方面由SPDK代替libaio,高并發(fā)場景下依然可以保持較低的時延。
總的來說,通過一系列技術革新手段,使得快杰云主機NVMe-SSD云盤的磁盤性能達到最佳狀態(tài)。
二、網(wǎng)絡增強2.0的“破局”
當我們搭建好一個超高性能的云硬盤,云主機的優(yōu)化工作就結束了嗎?
答案是,遠遠不夠。事實上,此時還會出現(xiàn)一個問題,那就是云主機日益增長的高性能需求與落后的核心配置之間的矛盾。
而這個矛盾就是由傳統(tǒng)的內核CPU處理模式所帶來的。
1、CPU的局限性
早期,服務器的功能較為簡單,需要處理的數(shù)據(jù)運算量也不大,因而所有的應用處理均是由CPU內核完成的,此時的CPU作為核心大腦是綽綽有余的。
但是,隨著云計算和大數(shù)據(jù)時代的來臨,云主機的計算需求越來越高。舉個例子,云主機會附加VNF的安全功能,而此類安全應用的處理與網(wǎng)絡傳輸不同的是,往往需要將數(shù)據(jù)包一一拆開做解析,對CPU的處理能力帶來極大的負擔。這時的CPU可以看作是拆東墻、補西墻 的狀態(tài),計算能力的大幅度消耗,勢必會帶來對其他應用的效率影響,從而造成云主機整體性能的下降。
在這樣的背景下,網(wǎng)絡與計算的高效融合勢在必行。
2、網(wǎng)絡增強2.0:基于OpenvSwitch卸載的智能網(wǎng)卡方案
一開始,為了解決云主機的計算性能問題,產(chǎn)生了TOE技術 (TCP offload engine),即將TCP連接過程中的相關計算工作轉移到專用硬件上,從而釋放CPU資源,而這個專用硬件就是早先的普通網(wǎng)卡。
不過,隨著Iaas的云計算服務模式出現(xiàn),云主機需要承擔更豐富的網(wǎng)絡功能來滿足云租戶的需求,例如任意配置IP的虛擬私有網(wǎng)絡、可擴展的4層負載均衡器、訪問控制列表等等。這便意味著網(wǎng)卡需要具備更高性能以備網(wǎng)絡性能的增強。
此時,
文章版權歸作者所有,未經(jīng)允許請勿轉載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉載請注明本文地址:http://systransis.cn/yun/117617.html