久久婷婷五月综合色丁香-亚洲综合久久久久久888-天美麻花果冻视频大全英文版-成人免费无码大片a毛片18-欧美男男作爱videos可播放

憶聯(lián)SSD為分布式塊存儲(Ceph)提供極致性能的存儲方案

近年來,隨著云計算、5G、人工智能、物聯(lián)網(wǎng)、AI等新技術(shù)的快速發(fā)展和應(yīng)用,數(shù)據(jù)量規(guī)模成指數(shù)級增長,傳統(tǒng)集中式存儲方案因可靠性、安全性無法保障,數(shù)據(jù)利用率低等弊端,無法滿足大規(guī)模的存儲應(yīng)用需求,在此背景下分布式存儲應(yīng)運而生。分布式存儲憑借其易擴展、高性能、成本優(yōu)勢明顯、支持分級存儲、多副本一致性及存儲系統(tǒng)標(biāo)準(zhǔn)化等優(yōu)勢成為云環(huán)境下存儲底座構(gòu)建的重要選擇。

分布式存儲分為塊存儲、文件存儲和對象存儲,其中塊存儲主要是對計算集群虛擬機、容器提供彈性卷服務(wù),而彈性卷EVS作為當(dāng)前云業(yè)務(wù)平臺最核心的存儲服務(wù),對存儲性能要求極高,在此基礎(chǔ)上各大云廠商基本采用全閃化形態(tài)部署。固態(tài)硬盤(SSD)以閃存為存儲介質(zhì),相比機械硬盤(HDD)具有讀寫速度快、延遲低、抗震性好等優(yōu)勢,在分布式存儲中廣泛使用。

Ceph是當(dāng)前業(yè)界應(yīng)用最廣泛的開源分布式存儲軟件,具備高擴展性、高性能、高可靠等特點,同時支持塊存儲、文件存儲及對象存儲接口,已成熟應(yīng)用于云計算的IAAS平臺。為更好助力分布式塊存儲系統(tǒng)性能及可靠性的提升,憶聯(lián)在Ceph平臺下開展實測。

技術(shù)簡介

Ceph是一個統(tǒng)一的分布式存儲系統(tǒng),可提供較好性能、可靠性和可擴展性,是面向云計算領(lǐng)域重要的底層存儲系統(tǒng),已在國內(nèi)運營商、政府、金融、互聯(lián)網(wǎng)等多個行業(yè)落地應(yīng)用。

1Ceph技術(shù)架構(gòu)圖

Ceph主要分為應(yīng)用接口層、存儲基礎(chǔ)接口層、存儲對象層,接口層主要負責(zé)客戶端訪問,分為本地語言綁定接口、塊存儲設(shè)備接口和文件系統(tǒng)接口,展現(xiàn)了Ceph統(tǒng)一性的特征。

Ceph塊存儲系統(tǒng)中,數(shù)據(jù)以塊的形式存在卷里,塊為應(yīng)用程序提供大存儲容量,可靠性和性能都更高,卷可映射到操作系統(tǒng)中,由文件系統(tǒng)層控制。Ceph塊存儲系統(tǒng)引入的RBDCeph塊設(shè)備)協(xié)議為客戶端提供了高可靠、高性能、分布式的塊存儲,同時RBD也支持其他的企業(yè)級特性,例如完整和增量式快照,精簡的配置,寫時復(fù)制( copy-on-write)式克隆,以及全內(nèi)存式緩存等,從而大大提高了它的性能。


2Ceph塊存儲組件

方案驗證

1. 驗證環(huán)境

1.1 本次驗證硬件配置

類型

型號

硬件配置

服務(wù)器

2U2路服務(wù)器

CPU:Intel Xeon Gold 6336Y @2.4GHz

內(nèi)存:12*16GB

存儲控制器:支持RAID 1(系統(tǒng)盤)

網(wǎng)卡:2*2端口25GE以太網(wǎng)卡

硬盤

憶聯(lián)SSD

系統(tǒng)盤:2*480GB SATA

數(shù)據(jù)盤:8*7.68 NVMe SSD(UH811a)

交換機

25GE 交換機

48端口25GE交換機

1.2本次驗證軟件配置

類型

型號

版本

操作系統(tǒng)

CentOS(x86

7.6

存儲軟件

Ceph(開源)

12.2.8 luminous

FIO

IO測試

3.7

SAR

網(wǎng)絡(luò)監(jiān)控

10.1.5

IOSTAT

盤側(cè)IO統(tǒng)計

10.0.0

MPSTAT

CPU利用

10.1.5

1.3本次驗組網(wǎng)規(guī)劃

3Ceph組網(wǎng)規(guī)劃架構(gòu)圖


2. 驗證方法

步驟1:創(chuàng)建RBD pool和RBD卷。配置參數(shù)osd_pool_default_size確定RBD Pool池的副本數(shù),2表示兩幅本,3表示三副本,根據(jù)實際副本數(shù)需求,將該配置項添加到ceph.conf中即可。另外根據(jù)規(guī)劃,需要創(chuàng)建60個大小為100GiB的RBD卷進行IO測試。

步驟2:下發(fā)IO測試前,需對服務(wù)器和客戶端的IO、CPU、網(wǎng)絡(luò)進行監(jiān)控,每2秒采集一次數(shù)據(jù)。

步驟3:在6個客戶端上同時對60個RBD卷下發(fā)IO,每個客戶端均需綁核,即每個fio綁定不同cpu核。

步驟4:完成IO測試后,需關(guān)閉服務(wù)端和客戶端的IO、CPU、網(wǎng)絡(luò)進行監(jiān)控。

步驟5:測試完成后,需匯總所有客戶端fio的BW、IOPS、平均時延,匯總對應(yīng)的監(jiān)控數(shù)據(jù)。對于BW和IOPS,累加各FIO對應(yīng)結(jié)果即可;對于平均時延,累加之后需求平均值。


3. 驗證結(jié)果

本次在 Ceph場景下驗證結(jié)果(以下結(jié)果為本次測試結(jié)果,僅供參考)如下:

3.1憶聯(lián)UH8SSD在隨機讀及順序讀下的表現(xiàn)

4Ceph場景下憶聯(lián)UH8SSD讀性能

從圖4可以看出,在Ceph分布式存儲系統(tǒng)下,不論是二副本還是三副本,憶聯(lián)UH8SSD的讀性能基本持平。在時延方面,二副本與三副本趨勢基本一致,1QD32QD間較為穩(wěn)定,在32QD后時延明顯增加。

3.2憶聯(lián)UH8SSD在隨機寫及順序?qū)懴碌谋憩F(xiàn)

5Ceph場景下憶聯(lián)UH8SSD寫性能

如圖5所示,不論是在隨機寫還是在順序?qū)憳I(yè)務(wù)下,二副本寫性能遠高于三副本性能,主要是由于副本復(fù)制帶來的網(wǎng)絡(luò)及存儲開銷,造成三副本寫帶寬及寫IOPS下降明顯。在總體時延表現(xiàn)上,二副本明顯優(yōu)于三副本。在時延變化趨勢上,二副本與三副本基本一致,皆在32QD后有比較顯著的上升。

3.3憶聯(lián)UH8SSD在混合讀寫場景下的表現(xiàn)

圖6:Ceph場景下憶聯(lián)UH8系SSD混合讀寫性能

從圖6可以看出,在4K 7:3混合讀寫業(yè)務(wù)場景下,從16QD起,二副本IOPS性能優(yōu)于三副本。在時延整體表現(xiàn)上,二副本低于三副本,但在時延變化趨勢上,二副本與三副本基本一致,時延從32QD起,明顯上升。

結(jié)論:

Ceph讀、寫、混合讀寫業(yè)務(wù)場景的實測數(shù)據(jù)中,可以看到憶聯(lián)SSD整體表現(xiàn)優(yōu)秀,可為Ceph環(huán)境提供極致存儲性能。在時延上,憶聯(lián)SSD32QD及以下場景中,表現(xiàn)亮眼,可獲得更佳的時延體驗。

3.4 智能多流降WA,有效提升SSD壽命

                                      7 Ceph場景下智能多流特性測試

Ceph方案中,基于標(biāo)準(zhǔn)JESD 219業(yè)務(wù)模型,針對SSD分別開啟、關(guān)閉智能多流進行寫放大測試,通過圖7對比驗證結(jié)果可以看到憶聯(lián)智能多流(IMS)開啟后,SSD寫放大降低20%+,極大提升了SSD壽命。

總結(jié)

  • 本次驗證清晰顯示了憶聯(lián)SSD 在Ceph分布式存儲系統(tǒng)下性能的穩(wěn)定發(fā)揮,有效地支撐了Ceph的存儲需求,可提供始終如一的高性能,成為軟件定義存儲解決方案最優(yōu)的選擇。同時,憶聯(lián)SSD獨有的智能多流技術(shù)可降低分布式存儲場景下SSD寫放大,提升SSD壽命,幫助用戶減少總體TCO。對于Ceph分布式存儲系統(tǒng)而言,憶聯(lián)SSD是一個可真正做到高性能、高可靠、低成本的存儲解決方案。

資料下載
Copyright ? 2020-2025 All Rights Reserved. 粵ICP備18155700號 技術(shù)支持:深圳憶聯(lián)信息系統(tǒng)有限公司 法律聲明 隱私政策
主站蜘蛛池模板: 吉林省| 都兰县| 孟州市| 松潘县| 昌江| 枝江市| 嫩江县| 庐江县| 晋城| 铁岭市| 新建县| 景德镇市| 曲麻莱县| 江达县| 阳谷县| 佛山市| 石门县| 牙克石市| 竹北市| 滨海县| 兴文县| 沙田区| 无为县| 余干县| 黑水县| 新化县| 贺州市| 彭州市| 广饶县| 革吉县| 鹤峰县| 常宁市| 固镇县| 施甸县| 太谷县| 娄烦县| 涪陵区| 佛教| 乐昌市| 繁峙县| 石泉县|