成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

分布式存儲—硬盤容量不均衡導致的緩存盤壽命急速衰減分析

原創
云計算 分布式
雖然Ceph分布式存儲具備上述的優勢特點,但在實踐中,對硬件的選擇及配置均存在特別要求,尤其是硬盤、網絡上,如果配置不當,存儲的可靠性和性能均會受到影響。

【51CTO.com原創稿件】Ceph分布式存儲在擴展性、可靠性、性能上具備獨特的優勢,可以實現快速擴展多臺服務器,動態伸縮到PB級容量,多副本機制保障數據高可靠,數據均衡分布,并發性能高等場景。目前廣泛應用于互聯網、科研、教育、制造業、政府等諸多領域。ZStack云平臺目前支持對接Ceph分布式存儲,使用的是分布式塊存儲,即使用librbd的塊設備接口提供給Qemu訪問,進行云主機、云盤的IO讀寫。

雖然Ceph分布式存儲具備上述的優勢特點,但在實踐中,對硬件的選擇及配置均存在特別要求,尤其是硬盤、網絡上,如果配置不當,存儲的可靠性和性能均會受到影響。

最近在日常巡檢一套ZStack生產環境的Ceph分布式存儲時,我們發現客戶新購的五臺服務器的SSD壽命損耗存在異常。具體的現象是使用半年后,服務器帶外管理界面看到SSD的壽命損耗只剩下89%,但使用smartctl讀取介質損耗參數依然顯示為100%。

此時會很疑惑,到底哪個數據更可靠,如果SSD壽命只剩下89%,那么如何去調整優化Ceph分布式存儲?

問題回顧

針對這個問題,我們回顧一下這套分布式存儲的架構。當時采用了新購+利舊的方案來部署分布式存儲。

相應的配置信息如下:

ZStack

其中,新購的5臺機器采用了Intel Xeon E5-2660 v4的CPU,內存為256G,機器整體可插入8塊3.5寸硬盤,采用了兩塊480G SSD硬盤配置RAID1安裝系統,采用一塊960G SSD做Ceph分布式存儲的緩存盤,每個緩存盤對應了5個OSD數據盤,每個緩存分區約160G的容量,每個OSD容量4T。存儲采用萬兆網絡,做鏈路聚合 LACP Mode 4。

利舊的4臺機器采用了Intel Xeon E5-2697 V3的CPU,內存為256G,機器整體可以插入可插入8塊2.5寸硬盤,采用了兩塊480G SSD硬盤配置RAID1安裝系統,采用兩塊480G SSD做Ceph分布式存儲的緩存盤,每個緩存盤對應了2個OSD數據盤,每個緩存分區約240G容量,每個OSD容量600G。存儲采用萬兆網絡,做鏈路聚合 LACP Mode 4。

前五臺機器,每臺機器配置5塊4T硬盤容量,總存儲容量100T,后4臺,每臺機器4塊600G容量,總量9.6T。

初期將所有容量規劃到同一個存儲池中,總裸容量約109T,配置三副本后,容量約36T。

環境主要運行了MySQL,Redis,ELK,Zabbix,Web服務,App服務等業務,合計業務類型主要偏向IOPS密集型業務。業務運行前兩個月,整體系統沒有任何問題。

SSD壽命參數分析診斷

針對SSD壽命損耗的不一致性,參考SSD的壽命參數,我們進行了以下分析:

Endurance Rating (Lifetime Writes): 生命周期內總寫入容量,客戶環境使用的960G SSD生命周期內總寫入量為1.86 PBW,即最多可寫入1.86PB的數據。

DWPD:Device Writes Per Day,硬盤每天寫入次數,全盤寫入,寫滿算一次,用于評估硬盤的耐久度。此款960G SSD的官網標稱耐久度為1 DWPD,即每天可全盤寫入一次。

所以從SSD生命周期總寫入量的角度來看,服務器帶外管理界面看到的壽命損耗更為合理一些。

結合此硬盤的生命周期總寫入量和每天可擦寫一次,可了解此硬盤在1.86PB/960G/每天=1860000B/960G=1937天,約5年多的使用時間,與廠商承諾的5年質保的時間一致。

在使用ZStack云平臺的IO監控工具及smartctl工具去排查分析960G SSD硬盤的每天寫入量,發現每天硬盤的寫入量在2.5T以上,接近SSD硬盤容量960G的三倍。

同時分析后4臺服務器的SSD緩存盤的硬盤寫入量很少,相應的硬盤總壽命未受過多影響。

測試發現,前五臺服務器的SSD,IOPS 95%都在3000以上,讀寫比在15:85,平均讀IO塊大小為16K左右,寫IO塊大小為18K左右。而針對前五臺服務器的OSD數據盤,IOPS 95%在30左右,讀寫比為86:14,平均讀IO塊大小為30K左右,寫IO塊大小為180K左右。

所以前五臺物理機的SSD緩存盤每天寫入量接近官網標稱值的三倍,按照生命周期總寫入量的損耗預估,前五臺服務器的SSD緩存盤壽命可能不到兩年。

但后面4臺服務器SSD的使用率為何沒有提上去,對前五臺服務器的SSD進行均衡使用呢。

我們再來了解一下Ceph數據分布的基本原理。Ceph的CRUSH MAP算法,可以實現數據能夠均勻地分布在不同容量硬盤的存儲節點,Ceph會根據OSD數據盤容量進行權重的計算,并基于存儲集群的映射和數據分布策略的placement rules進行哈希計算。同一存儲池中,OSD數據盤容量大的,IO請求多,OSD數據盤容量小的,IO請求少。IO請求經由數據的哈希到PG的映射過程,再由PG根據副本數映射到不同的OSD中。如果OSD硬盤不同,那么容量大的硬盤可以處理更多的PG。相應的IO處理就更多。根據相應的IO均衡策略,如果存儲池內總容量109T,使用30%的容量,則會在所有的數據盤均平均存儲30%的容量,相對于前五臺節點采用的4T的數據盤,每個盤存儲約1.2T的數據,后四臺采用的600G的數據盤,每個盤存儲約180G的數據。

所以基于這種硬盤容量的不均衡,導致相應的IO請求也會不均衡,在業務壓力大時,后4臺機器無法均衡處理整體的IO請求,在分布式規劃時,需配置各機器的硬盤配置、網絡配置一致。

分布式存儲優化方案

針對以上情況,考慮進行以下調整:

檢查當前業務使用情況,調整業務的使用方式,將部分非重要業務關閉,降低IO的使用方式,調整后,再監控相應IO的使用情況,發現960G SSD的每天寫入量已降低至1.8T,此時業務已無法持續調整。

在業務無法調整的情況下,只能考慮擴容及硬盤調整,在考慮擴容的過程中,還需要考慮后續業務量的增長。

因為當前的存儲容量,可以提供當前業務的存儲量,但在緩存盤性能上,不足以支撐相應業務的需求,此款960G SSD的每天硬盤寫入次數DWPD為1,只能全盤刷入一遍。考慮到硬盤的每天寫入量,建議新緩存盤采用新款的960GB SSD,官網的標稱值其在生命周期的總寫入量在為5.26PBW,每天硬盤的寫入量為3DWPD,即每天可擦寫三遍。

基于可靠與經濟的基本原則,我們考慮以下硬件擴容方案進行擴容:

1. 再新增3臺服務器,采用總寫入量更高的960GB SSD,480G SSD系統盤,其他配置與原本前五臺配置相同;

2. 前五臺服務器,也采用總寫入量更高的960GB SSD替換原本的960GB SSD,將前五臺機器擴容成8臺相同配置的機器;

3. 后4臺服務器,將緩存盤替換成步驟二移除下來的960GB SSD,此時每臺機器可以插入5塊數據盤;

4. 后4臺服務器,將原本的2.5寸 600G SAS硬盤,變更為2.4T企業版SAS硬盤,目前2.5寸企業級硬盤***容量受限于2.4T;

5. 存儲規劃,8臺E5-2660的服務器提供5x4Tx8的存儲容量,約160T。后4臺服務器提供5X2.4Tx4的存儲容量,約48T。

6. 前8臺單獨一個存儲池,后4臺單獨一個存儲池,均配置三副本。

ZStack

 

ZStack

具體的調整方案步驟,可參考以下步驟:

1. 從存儲池,移除后4臺服務器的硬盤,并關閉這4臺機器;

2. 在新購入的三臺服務器上,安裝部署Ceph存儲節點,加入到分布式存儲集群的存儲池中;

3. 將原本的前五臺機器的一臺服務器,移除硬盤,移除服務器,等待Ceph存儲數據平衡恢復;

4. Ceph平衡完畢后,關閉此服務器,將其上的960G SSD變更為耐久度更高的960G SSD;

5. 重復步驟3-4,完成前五臺機器的變更;

6. 變更后4臺服務器的硬件,將前五臺機器中原本的960G SSD各分配一塊到后4臺服務器,將每臺機器上的600G SAS硬盤更換成5塊2.4T的SATA硬盤,添加到Ceph存儲,針對這些2.4T硬盤,單獨規劃一個Ceph存儲池;

7. 添加步驟6創建的新存儲池到ZStack的Ceph主存儲作為數據云盤池,創建數據云盤時使用,在業務使用時,可將部分業務,部署在后4臺機器的存儲池中;

8. 添加新購入的三臺服務器到ZStack的計算節點集群中,同時用于提供計算資源。

使用上述方案變更,可以解決當前業務場景下,針對原本前5臺服務器的每天硬盤寫入量3遍,導致SSD壽命加速衰減的情況,又新增了三臺服務器進行了計算存儲的超融合擴容。針對Ceph容量存儲IO請求不均衡的場景,也使用單獨的存儲池,進行規劃,相同容量的硬盤規劃到同一存儲池,可以實現IO請求的均衡,IO數據的均衡,各SSD的使用也相對均衡,即8臺服務器的使用損耗一致,后4臺服務器的使用損耗也一致。

結語

綜上所述,分布式存儲在規劃部署時,需要考慮以下方面:

1. 同一存儲池的硬盤型號容量應一致,否則不同容量的硬盤在同一存儲池,會導致IO請求的不均衡,導致存儲分布不均衡,在使用SSD緩存盤的場景會導致使用大容量硬盤對應的SSD IO請求更多,損耗會更快;

2. 業務規劃需提前做好評估,針對IOPS,帶寬寫入進行提前規劃,高IO的業務需進行評估,準備的硬件是否可滿足業務需求,如果業務需求較高,需使用更高配置硬件或進行相應的硬件擴容;

3. 分布式存儲選擇SSD時,建議關注SSD的PBW(生命周期總寫入量)和DWPD(每天硬盤可寫入量),SSD壽命的損耗與其總寫入量需要規劃考慮業務類型,IO密集型業務應選擇更高DWPD的SSD。

【51CTO原創稿件,合作站點轉載請注明原文作者和出處為51CTO.com】

責任編輯:趙立京 來源: 51CTO
相關推薦

2013-03-01 10:36:54

固態硬盤存儲容量SSD

2018-03-19 09:30:53

剖析固態硬盤

2019-07-17 22:23:01

分布式系統負載均衡架構

2018-09-03 11:26:51

硬盤容量標注

2023-07-05 00:09:13

分布式存儲架構

2017-10-27 08:40:44

分布式存儲剪枝系統

2023-05-12 11:52:21

緩存場景性能

2018-12-14 10:06:22

緩存分布式系統

2024-08-12 16:20:27

2022-04-07 17:13:09

緩存算法服務端

2021-08-07 05:00:20

存儲系統

2021-07-04 07:07:06

Ceph分布式存儲架構

2015-05-12 13:03:54

開源分布式存儲HDFS

2017-09-06 14:48:54

玻璃碟片硬盤容量硬盤

2023-02-28 07:01:11

分布式緩存平臺

2019-02-18 11:16:12

Redis分布式緩存

2013-06-13 11:29:14

分布式分布式緩存

2018-02-22 08:42:04

分布式存儲安全

2021-10-22 05:42:38

分布式存儲三副本系統

2018-10-29 12:51:35

分布式存儲元數據
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 99精品免费久久久久久日本 | 成人性视频免费网站 | 亚洲一区二区三区 | 蜜桃视频成人 | 春色av| 天天干夜夜| 国产乱码精品一区二区三区中文 | 日韩欧美在线观看视频网站 | 久久精品一 | 91最新在线视频 | 日韩欧美一区二区三区在线播放 | 91久久久久久久久久久 | 日韩一区精品 | 黄色成人在线观看 | 91伊人 | 欧美成人二区 | 中文字幕免费 | 国产欧美一区二区三区国产幕精品 | 欧美激情久久久 | 不卡一区二区在线观看 | 国产欧美久久一区二区三区 | 91视频亚洲| 看片网站在线 | 中文精品久久 | 亚洲精品久久久久中文字幕欢迎你 | 国产激情一区二区三区 | 91精品国产91久久久久久 | 国产精品a久久久久 | 国产精品久久久久国产a级 欧美日韩国产免费 | 美女视频一区二区 | 成人在线免费观看 | 亚洲精品在线视频 | 一级黄色片在线看 | 日本久久www成人免 成人久久久久 | 精品成人| 一区二区三区四区毛片 | 产真a观专区| 亚洲国产一区视频 | 欧美午夜视频 | www.日韩 | 少妇黄色 |