成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Ceph PG 自動伸縮優化以及升級 Quincy 版本注意點

系統 Linux
在 Quincy 之前,一些通過自動化工具安裝 Ceph 的用戶從一開始就遇到了性能問題。默認情況下,自動縮放器會以最小數量的 PG 開始創建每個池,僅在使用量增加后增加該數量。這種行為主要導致大型池的性能不佳,需要比自動縮放器提供的最小數量更多的 PG。

?介紹

pg_autoscaler? 模塊首先在 Nautilus (14.2.x) 版本中引入,是在 Ceph 集群中自動管理歸置組的絕佳方式。根據預期的池使用情況,pg_autoscaler 可以根據池使用情況和用戶設置的調整來提出建議并調整集群中歸置組的數量。

自動縮放器帶有一系列調整選項,包括--bulk?標志、target_size_ratio、noautoscale、bias、pg_num、pg_num_max和pg_num_min。為了準備最新的 Quincy 版本,我們通過發布標準測試和派生的調整建議和故障排除技巧對這些調整進行了測試,用戶可以在升級到 Quincy 時參考這些調整。在這篇博文中,我們總結了自動擴縮器帶來的最初挑戰,概述了發布標準測試帶來的最佳調優實踐,并以一些自動擴縮器故障排除技巧結束。

--bulk 標志的最初挑戰和動機

在 Quincy 之前,一些通過自動化工具安裝 Ceph 的用戶從一開始就遇到了性能問題。默認情況下,自動縮放器會以最小數量的 PG 開始創建每個池,僅在使用量增加后增加該數量。這種行為主要導致大型池的性能不佳,需要比自動縮放器提供的最小數量更多的 PG。

這種“默認安裝”行為導致了 Quincy 引入該--bulk?標志。用戶現在可以使用--bulk?來標志大容量的存儲池。--bulk通過在池上設置標志,自動縮放器將從一開始就分配更多的 PG。這樣,用戶不再需要等待自動縮放器檢測到更多的使用情況,然后再分配適當數量的 PG。

調整建議

--bulk 標志應該用于大型池以獲得最佳性能。

該--bulk?標志現在可用于指示存儲池將很大,并且應該從大量 PG 開始。用戶可以在創建新池時和在現有池上設置--bulk?標志。任何不帶--bulk標志創建的池都將保持默認行為,即從最小數量的 PG 開始。

要在池創建期間設置--bulk?標志,請使用ceph osd pool create <pool-name> --bulk?。要在現有池上設置或取消設置--bulk?標志,請使用ceph osd pool set <pool-name> bulk <true/false/1/0>?。要獲取現有池的--bulk?標志狀態,請使用ceph osd pool get <pool-name> bulk。

如果您希望一個池相對于其他池消耗更多的集群容量,請使用 target_size_ratio 設置。

可以使用target_size_ratio設置指定池的目標比率。如果您知道某個池相對于其他池應該具有一定的比率,則此設置特別有用。除非另有說明,否則每個池的目標比率默認應為 0。您給池的目標比率越高,您期望池中的 PG 就越大。

要檢查池的目標比率,請使用osd pool autoscale-status?并查看TARGET RATIO?列。target_size_ratio?可以使用ceph osd pool set <pool_name> target_size_ratio <ratio>?進行調整。 要在創建池期間設置target_size_ratio?,請使用ceph osd pool create --target-size-ratio <ratio>。

使用 noautoscale 標志全局切換所有池的自動縮放器。

現在可以為所有帶有noautoscale?標志的池全局打開和關閉自動縮放器。默認情況下,此標志設置為 false?,并且每個池的默認pg_autoscale?模式(即 )on保持相同。

如果要為每個池打開自動縮放器,請使用ceph osd pool unset noautoscale?。如果要為每個池關閉自動縮放器,請使用ceph osd pool set noautoscale?。要獲取 noautoscale? 標志的當前值,請使用ceph osd pool get noautoscale。

使用bias來幫助自動縮放器準確調整 PG 的數量。

偏差是一個乘數,用于根據有關該池的預期 PG 數量的信息手動調整池的 PG。默認情況下,偏差值應為 1.0,除非另有說明。你給池的偏差越大,你期望池中的 PG 就越大。

要檢查池中的bias?值,請使用osd pool autoscale-status?并查看BIAS?列。要在現有池上設置bias? ,請使用ceph osd pool set <pool_name> pg_autoscale_bias <bias>。

如果您提前知道池的使用率,請在創建池之前使用 pg_num 選項。

首次創建集群或池時,僅消耗一小部分集群容量。因此,您的系統可能會低估集群或池所需的 PG 數量。如果您提前知道集群或池的使用率,請在創建池之前使用該pg_num選項。這將幫助您的集群提前計入適當數量的 PG。

要檢查池的pg_num?值,請使用ceph osd pool autoscale-status?并查看PG_NUM?列。要指定創建池時設置pg_num?,請使用ceph osd pool create <pool_name> <pg_num>?。要設置池中允許的最小 pg 數,請使用ceph osd pool set <pool-name> pg_num_min <pg_num>?。 要設置池中允許的最大 pg 數,請使用ceph osd pool set <pool-name> pg_num_max <pg_num>。

使用 pg_num_max 值設置池中的最大 PG 數。

可以指定池中的最大 PG 數。這在創建較小的池(例如 .mgr、元池或不帶--bulk標志的池)時很有用。

要在創建池時指定最大 PG 計數,請在命令中使用可選--pg-num-max <num>?參數。ceph osd pool create?創建池后,使用ceph osd pool set <pool-name> pg_num_max <num>進行設置。

使用 pg_num_min 值設置池中的最小 PG 數。

同樣,我們可以指定一個池中的最小 PG 數。當我們想要客戶端在執行 IO 時看到的并行量的下限時,這是有利的,即使池大部分是空的。這在創建更大的池(例如設置了--bulk標志的池)時很有用。

要在創建池時指定最小 PG 計數,請在命令中使用可選--pg-num-min <num>?參數。ceph osd pool create?創建池后,使用ceph osd pool set <pool-name> pg_num_min <num>進行設置。

升級到 Quincy 之前需要了解的事項

當從沒有自動縮放器的 Ceph 版本升級到帶有自動縮放器的 Ceph 版本時,自動縮放器將可用于升級后的每個池,并且默認情況下所有的池都是off?。但是,如果您從帶有自動擴縮器的 Ceph 版本升級到也包含自動擴縮器的新版本,則所有池都將保留其在升級之前的原始自動擴縮器設置,無論是off、on?還是warn。

要在池上使用--bulk標志,用戶需要升級到 Ceph >= 16.2.8 的版本。

最后,啟用日志記錄以診斷 pg_autoscaler? 模塊的所有問題很重要。與所有管理器模塊一樣,pg_autoscaler? 有一個log_level?選項來指定其 Python 日志記錄級別。我們建議您使用warning?來捕獲有關升級過程的信息。要獲取 pg_autoscaler? 模塊的當前日志級別,請使用ceph config get mgr mgr/pg_autoscaler/log_level?。要將 pg_autoscaler? 日志級別設置為warning?,請使用ceph config set mgr mgr/pg-autoscaler/log_level warning?。其他選項是info、debug、critical和error。

故障排除提示

如果自動縮放器未按預期方向縮放怎么辦?

檢查是否為每個池正確配置了bulk?值,使用ceph osd pool autoscale-status?。 如果BULK?為“false?”,則自動縮放器從最小數量的 PG 開始。如果BULK?設置為“true?”,則自動縮放器從大的數量 PG 開始。如果您在狀態輸出中看到的任何批量值與預期不符,您可以使用ceph osd pool set <pool-name> bulk <true/false/1/0>更改它們。

為什么自動縮放器無法縮放或使用不正確的值縮放?

檢查受影響的池的自動縮放器是否打開/關閉。

如果自動縮放器無法在池上縮放,請檢查?on?是否適用于該池。您可以使用ceph osd pool autoscale-status?查看。 在AUTOSCALE?列,檢查模式是否為on。如果發現狀態是?off?,您可以為受影響的池打開自動縮放器osd pool set <pool-name> pg_autoscale_mode on?。

如果自動縮放器on?適用于池,但您希望它為off?,您可以使用osd pool set <pool-name> pg_autoscale_mode off關閉它。

檢查 overlapping root。

如果每個池的自動擴縮器模式都正確,則自動擴縮器可能由于集群中的?overlapping root?而無法擴展。檢查管理器日志以獲取此警告日志:pool <id> contains an overlapping root <id> … skipping scaling。我們建議使池僅屬于一個根以消除警告并確保成功的擴展過程。

檢查閾值是否影響縮放過程。

檢查該?threshold?值是否設置為適當的值(默認為 3.0)。該值是縮放過程是否執行的決定性因素。如果閾值太大(> 5.0),池將需要更多的利用率來觸發自動縮放過程。另一方面,如果閾值太低(< 2.0),池可能對縮放過于敏感。要調整池的閾值,請使用?ceph osd pool set threshold <value>。

檢查 mon_target_pg_per_osd 是否設置為適當的值。

下一個要檢查的調整是?mon_target_pg_per_osd?,它是每個 OSD 的目標 PG 數。默認情況下,該選項應設置為 100。如果您發現每個 OSD 的 PG 數量與預期不符,可以使用命令調整該值ceph config set global mon_target_pg_per_osd <value>。

檢查速率設置是否正確。

另一個要檢查的調整是?rate?值,它是池的復制大小(復制池)或糾刪碼值(糾刪碼池)。該值決定了該池消耗了多少原始存儲容量。使用命令驗證它是否根據池的副本大小或糾刪碼配置文件正確設置osd pool autoscale-status?。在該RATE?輸出的列,您可以看到如何為每個池設置rate?。您可以使用ceph osd pool set <pool-name> size <value>調整單個池的速率。

檢查 bias 是否設置正確。

正如Tuning Recommendations (?https://ceph.io/en/news/blog/2022/autoscaler_tuning/#use-the-bias-value-to-help-the-autoscaler-accurately-adjust-the-number-of-pgs.?) 中所解釋的,您給池的bias?越大,您期望池具有的 PG 就越大。因此,您應該檢查是否bias為受影響的池設置了適當的值。

檢查 target_size_ratio 是否設置正確。

同樣,?target_size_ratio是另一種調整,您在池中提供的越多,您期望池中的 PG 就越大,因此,您應該確保該值適合受影響的池。

我怎么知道自動縮放器在做什么?

從高級視圖中,您可以使用命令觀察自動縮放器的活動ceph progress。此命令的輸出顯示當前正在擴展其 PG 的池以及擴展了多少。

此外,您可以通過執行ceph osd pool autoscale-status?并查看每個池的NEW PG_NUM列,從而得出您與 PG 目標的差異。

有關自動縮放器的最詳細視圖,請訪問管理器日志并查找以下 INFO 級別日志輸出:

Pool <pool_name> root_id <root_id> using <capacity> of space, bias <bias>
pg target <pg_target> quantized to <pg_target_nearest_power_of_two> (current <current_pg>)
effective_target_ratio <target_size_ratio> <total_target_ratio> <total_target_bytes> <capacity>

應該使用什么級別的日志記錄來檢查自動縮放器活動?

需要 Python 日志記錄中的error日志級別來檢查自動縮放器活動。有關檢查和設置自動縮放器日志記錄級別的信息。

結論

正確調整 pg_autoscaler 模塊是讓 Ceph 集群自動管理其歸置組的好方法。

我們希望這些自動縮放器調優建議和故障排除技巧能夠在所有用戶升級到最新版本的 Quincy 時改善他們的開箱即用體驗。

有關更多信息,請參閱歸置組 (https://docs.ceph.com/en/latest/rados/operations/placement-groups/) 文檔,其中包含有關自動縮放器行為的更多詳細信息。

*原文: https://ceph.io/en/news/blog/2022/autoscaler_tuning/?

責任編輯:武曉燕 來源: 新鈦云服
相關推薦

2022-11-02 08:05:09

2017-04-06 09:49:55

Hive注意事項優化

2019-12-05 09:34:29

KubernetesHPA集群

2010-07-08 17:33:21

SQL Server數

2010-05-21 15:01:16

IIS負載

2018-04-20 09:24:08

Hbase存儲注意點

2013-10-16 10:45:29

JVMJava

2018-08-02 08:42:57

分布式存儲Ceph

2021-02-01 09:00:34

Ceph octopu集群運維

2011-06-07 15:54:51

網站排名內部優化

2017-04-19 15:57:21

Ceph RBD mi原理分析

2020-02-11 09:24:31

Android藍牙黑客

2011-03-31 11:14:51

Sql語句優化

2021-04-22 09:46:35

K8SCluster Aut集群

2025-06-09 07:30:00

Kubernetes節點自動伸縮集群

2021-10-26 11:21:50

WindowsCeph性能

2010-05-18 10:34:14

Subversion合

2023-02-02 08:04:15

Ceph數據CPU

2010-05-18 10:08:36

Subversion版

2015-07-09 13:19:17

Ceph分布式存儲性能調優
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美日韩一二三区 | 一区二区视频 | 91久久国产综合久久 | 久久精品欧美一区二区三区不卡 | 一级a爱片性色毛片免费 | 久久久婷婷 | 狠狠亚洲| 最新中文字幕第一页视频 | 欧美日韩精品久久久免费观看 | 伦理午夜电影免费观看 | 久久国产视频网 | 国产一区二区电影 | 国产91精品久久久久久久网曝门 | 亚洲一区免费视频 | 性xxxxx | 欧美日本韩国一区二区 | 日韩精品一区二区三区视频播放 | 精品视频久久久 | 亚洲综合一区二区三区 | 日韩在线免费视频 | 精品欧美激情在线观看 | 国产激情视频在线免费观看 | 精品久久久久久亚洲精品 | 久久一区 | 一区二区视频在线 | 国产乱码精品一品二品 | 卡通动漫第一页 | 日韩欧美视频网站 | 超碰97人人人人人蜜桃 | 欧美日韩精品一区二区三区四区 | a黄视频| 亚洲精品一区二区 | 成人h视频在线 | 真人一级毛片 | 99re在线视频 | av中文字幕在线播放 | 欧美日韩国产三级 | 精品久久久久一区二区国产 | 国产精品欧美一区二区三区不卡 | 国产一区二区三区在线看 | 中文字幕一区二区三区四区五区 |