#頭條創作挑戰賽#
本文承載《VMware vSAN 延伸群集(雙活)指南01-基礎知識介紹》這篇文章,屬于本部分内容的第二部分,主要是介紹延伸群集部署設計的注意事項。
設計注意事項
見證主機必須能夠運作與 vSAN 資料節點相同版本的 ESXi。
見證主機大小調整
vSAN 見證主機可以是傳統的實體 ESXi 主機,也可以是提供和打包的 vSAN 見證裝置 (OVA)。見證主機的用途是存儲虛拟機對象的見證元件。
vSAN 見證裝置(虛拟機)
部署 VMware 提供的 vSAN 見證裝置是 vSAN 見證主機的推薦部署選擇。選擇此部署選項時,需要考慮一些要求。
vSAN 見證裝置版本
每個版本的 vSAN 都會提供一個 vSAN 見證裝置。底層 vSphere 版本與運作 vSAN 的版本相同。初始部署 vSAN 見證裝置時,它必須與 vSAN 的版本相同。
示例:新的 vSAN 8.0 部署需要 vSAN 見證裝置的 8.0 版本。
更新 vSAN 群集時,請采用與更新 vSphere 相同的方式更新 vSAN 見證裝置。
vSAN 見證裝置大小
使用 vSAN 見證裝置時,大小取決于配置,這是在部署過程中決定的。vSAN 見證裝置部署選項在部署時采用寫死,通常無需修改這些選項。
計算要求
無論配置如何,vSAN 見證裝置都至少使用兩個 vCPU。
記憶體要求
記憶體要求取決于元件的數量。
存儲要求
緩存裝置大小:每個 vSAN 見證裝置部署選項的緩存裝置大小為 10GB。這對于每個元件來說最多足夠 64,000 個元件。在典型的 vSAN 部署中,緩存裝置必須是閃存/SSD 裝置。由于 vSAN 見證裝置具有虛拟磁盤,是以 10GB 緩存裝置将被視為虛拟SSD。此裝置不需要駐留在實體 fl灰/SSD 裝置上。傳統的紡紗驅動器是很古老的。
容量裝置大小:首先,考慮容量裝置最多可以支援 21,000 個元件。此外,vSAN 延伸叢集最多可支援 64,000 個元件。每個見證元件為 16MB。是以,可用于存儲見證元件的最大容量裝置接近 350GB。
vSAN 見證裝置部署大小和要求摘要
- 微型 - 支援多達 10 個虛拟機/750 個見證元件計算 - 2 個 vCPU記憶體 - 8GB vRAMESXi 啟動磁盤 - 12GB 虛拟硬碟緩存裝置 - 10GB 虛拟固态硬碟容量裝置 - 15GB 虛拟硬碟
- 正常 - 最多支援 500 個虛拟機/21,000 個見證元件 計算 - 2 個 vCPU記憶體 - 16GB vRAMESXi 啟動磁盤 - 12GB 虛拟硬碟緩存裝置 - 10GB 虛拟固态硬碟容量裝置 - 350GB 虛拟硬碟
- 大型 - 支援 500 多個虛拟機/45,000 個見證元件 計算:2 個 vCPU記憶體 - 32 GB vRAMESXi 啟動磁盤 - 12GB 虛拟硬碟緩存裝置 - 10GB 虛拟固态硬碟容量裝置 - 3x350GB 虛拟硬碟8GB ESXi 啟動磁盤*、一個 10GB 固态硬碟、三個 350GB 硬碟 每個群集最多支援 64,000 個元件
vSAN 見證裝置可以在何處運作?
它可以在以下任何基礎結構配置中運作,前提是适當的網絡到位:
- 在具有任何受支援存儲(vmfs 資料存儲、NFS 資料存儲、vSAN 群集)的 vSphere 環境中
- 任何 vCloud Air Network 合作夥伴托管的解決方案
- 在 vSphere 虛拟機管理程式(免費)安裝上
支援聲明中具體說明在 vSAN 群集上放置 vSAN 見證裝置:
- 支援在非延伸 vSAN 群集上運作 vSAN 見證裝置。
- 僅當四個獨立站點托管兩個不同的延伸叢集(延伸叢集“A”和延伸叢集“B”)時,另一個 vSAN 延伸叢集的延伸叢集 vSAN 見證裝置才受支援。我們可以将延伸叢集“A”的見證部署在延伸叢集“B”上,反之亦然。您可以在下面找到更多示例,說明不支援哪些配置以及支援什麼。
- 托管兩個延伸群集實作的兩個站點不支援跨站點見證支援。
不支援僅在兩個站點上為兩個延伸群集設定交叉見證。我們不支援此配置的原因是,每個延伸叢集都依賴于一個站點,并可能導緻級聯故障。讓我們檢查以下配置:兩個站點和兩個延伸群集。
在此方案中,我們有兩個站點。以及跨站點 1 和站點 2 的兩個延伸叢集 A 和 B。延伸叢集 A (SCA) 托管見證伺服器 B (WB),延伸叢集 B (SCB) 托管見證伺服器 A (WA)。在這種情況下,當其中一個站點發生故障時,這可能會導緻兩個延伸群集拓撲的級聯故障。駐留在 SCA 上的虛拟機将因丢失一個站點和見證站點而變得不可用。而渣打銀行将失去一個站點。如果備用站點失敗,這種交叉見證支援配置将導緻相同的結果。
兩個見證伺服器都可以在一個站點上運作,并且隻會丢失不托管任何見證伺服器的網站。在這種情況下,每個延伸群集都會出現故障,但不會影響 VM 的運作狀态。
在同一情況下,丢失站點1 将影響虛拟機的 SCA 和 SCB 運作狀态,因為它們都将出現多個站點故障。
- 托管兩個延伸群集實作的四個站點支援跨站點見證支援。
讓我們看一下如果我們有四個唯一的資料站點,有什麼改進。SCA 跨兩個站點實施,延伸叢集 B 跨其他兩個站點實施。除了見證裝置托管在其他延伸群集上(SCB 上的 WA 和 SCA 上的 WB)之外,任何站點之間都沒有依賴關系。一個站點故障不會影響對象的仲裁,并且 VM 将啟動并運作。
作為 vSAN 見證主機的實體主機
如果使用實體主機作為 vSAN 見證主機,則需要考慮一些要求。
許可
将實體主機用作 vSAN 見證主機時,必須使用有效的 vSphere 許可證為其授予許可。這不需要與其支援的 vSAN 群集相同的許可版本。
vSphere Build
如果使用實體主機作為 vSAN 見證主機,則該主機必須運作與其參與的延伸群集相同的 vSphere 内部版本。
計算和記憶體要求
ESXi 所需的最低規格滿足用作 vSAN 見證主機的最低要求。vSphere 的最低要求取決于 vSphere 的内部版本,可在 VMware 文檔:https://www.vmware.com/support/pubs/ 中每個版本的文檔部分找到。
存儲要求
與 vSAN 見證裝置相比,用作 vSAN 見證主機的實體主機的存儲要求不會更改。仍需要 ESXi 引導裝置、緩存裝置以及一個或多個容量裝置。
必填
- 第一個裝置 - vSphere 引導裝置 - 正常 vSphere 要求
- 第二個裝置 - vSAN 緩存裝置 - 不需要閃存/固态硬碟,但必須在 ESXi 中将其标記為閃存/固态硬碟,才能像使用閃存/固态硬碟裝置一樣使用。大小必須至少為 2GB
- 第 3 台裝置 - 最大可達 350GB,支援 vSAN 群集上最多 21,000 個元件的中繼資料
自選
- 第 4 台裝置 - 最大為 350GB,支援 vSAN 群集上最多 21,000 個元件的中繼資料 第 5 台裝置 - 最大為 350GB,支援 vSAN 群集上最多 21,000 個元件的中繼資料
其他工作負載
如果使用實體主機作為 vSAN 見證主機,則可能會運作其他工作負載。因為實體 vSAN 見證主機位于它參與的 vSAN 群集的外部;這些工作負載将不是 vSAN 群集的一部分。vSAN 磁盤組及其包含的磁盤不能用于這些工作負載。
*重要注意事項:多個 vSAN 見證裝置可以在單個實體主機上運作。使用 vSAN 見證裝置通常比專用實體主機更節省成本,以滿足 vSAN 見證主機的需求。
群集計算資源使用率
VMware 建議客戶在 vSAN 延伸群集中以 50% 的資源消耗量運作,以實作完全可用性。如果發生整個站點故障,所有虛拟機都可以在幸存的站點上運作。
VMware 了解,某些客戶希望運作高于 50% 的資源使用率級别。雖然可以在每個站點中以更高的使用率運作,但必須了解,如果發生故障,并非所有虛拟機都将在幸存的站點上重新啟動。
随着每站點政策的引入,容量要求取決于所使用的政策。
Protection | FTT/PFTT | FTM | SFTT | Capacity Required in Preferred Site | Capacity Required in Secondary Site | Capacity Requirement |
僅限跨站點 | 1 | 鏡像 | 100% | 100% | 200% | |
跨具有本地鏡像的站點(RAID1 單故障) | 1 | 鏡像 | 1 | 200% | 200% | 400% |
跨具有本地鏡像的站點(RAID1 雙重故障) | 1 | 鏡像 | 2 | 300% | 300% | 600% |
跨具有本地鏡像的站點 (RAID1 三次故障) | 1 | 鏡像 | 3 | 400% | 400% | 800% |
跨具有本地糾删碼的站點( RAID5/單次故障) | 1 | 糾删碼 | 1 | 133% | 133% | 266% |
跨具有本地糾删碼的站點(RAID6/雙重故障) | 1 | 糾删碼 | 2 | 150% | 150% | 300% |
具有鏡像功能的單個站點 (RAID1 單次故障) | 鏡像 | 1 | 200% | 200% | ||
具有鏡像功能的單個站點 (RAID1 雙重故障) | 鏡像 | 2 | 300% | 300% | ||
具有鏡像功能的單個站點 (RAID1 三次故障) | 鏡像 | 3 | 400% | 400% | ||
具有糾删碼的單個站點(RAID5/單個故障) | 糾删碼 | 1 | 133% | 133% | ||
具有糾删碼的單個站點(RAID6/單個故障) | 糾删碼 | 2 | 150% | 150% |
網絡設計注意事項
延伸群集網絡設計注意事項
網站
vSAN 延伸群集需要三個故障域。兩個容錯域在 vSphere Client 中被指定為首選和非首選,vSAN 見證主機駐留在第三個(隐含的)故障域中。
計算故障域 - 包含 vSAN 資料節點。
- 首選容錯域 - 指定為 vSAN 對象的主要所有者。這是一個至關重要的名稱,特别是在連接配接中斷的情況下。
- 非首選容錯域 - 備用容錯域
- 這些容錯域通常位于地理位置上分離的位置。
見證站點 - 包含 vSAN 見證主機。
- 維護首選/非首選容錯域中的見證元件資料(如果适用)
- *使用“站點 Affinity”時,見證元件将不駐留在見證站點中
- 在單個資料中心中使用 vSAN 延伸群集時,可以将不同的房間或不同的機架視為單獨的站點。
連接配接和網絡類型
首選網站 | 輔助站點 | 目擊現場 | |
管理網絡 | 第 2 層或第 3 層到 vCenter/vSAN 主機 | 第 2 層或第 3 層到 vCenter/vSAN 主機 | 第 2 層或第 3 層到虛拟中心 |
虛拟機網絡 | 推薦第 2 層 | 推薦第 2 層 | 如果使用 vSAN 見證裝置,則不需要虛拟機網絡。不支援在 vSAN 見證裝置上運作虛拟機。 支援在實體見證主機上運作 VM。 |
虛拟運動網絡 | 如果需要在資料站點之間執行 vMotion,則支援第 2 層或第 3 層 此資料站點和見證站點之間不需要 vMotion | 如果需要在資料站點之間執行 vMotion,則支援第 2 層或第 3 層 此資料站點和見證站點之間不需要 vMotion | 不需要與見證站點建立 vMotion 網絡連接配接。 |
vSAN 網絡 | 到輔助站點:第 2 層或第 3 層 | 到首選站點:第 2 層或第 3 層 | 到首選站點:第 3 層 到輔助站點:第 3 層 |
端口要求
VMware vSAN 要求打開以下端口(入站和出站):
港口 | 協定 | 與/從 | |
vSAN 群集服務 | 12345, 23451 | UDP | vSAN 主機 |
vSAN 傳輸 | 2233 | 技術合作計劃(TCP | vSAN 主機 |
vSAN VASA 供應商提供商 | 8080 | 技術合作計劃(TCP | vSAN 主機和虛拟中心 |
vSAN 單點傳播用戶端(到見證主機) | 12321 | UDP | vSAN 主機和 vSAN 見證裝置 |
TCPIP 堆棧、網關和路由 TCPIP 堆棧
目前,vSAN 流量沒有專用的 TCPIP 堆棧。自定義 TCPIP 堆棧也不适用于 vSAN traffic。
ESXi 主機上的預設網關
ESXi 主機附帶預設 TCPIP 堆棧。是以,主機隻有一個預設網關。此預設網關與管理 VMkernel 接口(通常為 vmk0)相關聯。最佳做法是在具有備用尋址的備用 VMkernel 接口上實施存儲網絡連接配接(在本例中為 vSAN 網絡連接配接)。
vSAN 網絡連接配接使用與管理 VMkernel 接口相同的 TCPIP 堆棧,traffic 預設使用與管理 VMkernel 接口相同的預設網關。将 vSAN 網絡與管理 VMkernel 接口隔離後,無法使用預設網關。是以,預設情況下,vSAN 資料節點無法與見證主機通信。
此問題的一個解決方案是使用靜态路由。這允許管理者确定一個新的路由條目,訓示在 vSAN 延伸群集上的 vSAN 網絡的情況下,應遵循哪個路徑才能到達特定網絡。
可以按如下方式添加靜态路由:
- 首選站點上的主機添加了靜态路由,以便從 vSAN VMkernel 接口路由到見證站點上的見證網絡的請求。
- 輔助站點上的主機添加了靜态路由,以便從 vSAN VMkernel 接口路由到見證站點上的見證網絡的請求。
- 見證站點上的見證主機添加了靜态路由,以便從 WitnessPg VMkernel 接口路由到首選站點和輔助站點的請求。
- 在首選站點和輔助站點之間使用第 3 層可能需要靜态路由才能在站點間鍊路上正确通信。
*請注意,這可能會導緻 vSAN 網絡具有比對的子網的警報(如果連接配接經過驗證,則可能會忽略該警報。
靜态路由是通過 esxcli 網絡 IP 路由或 esxcfg 路由指令添加的。有關詳細資訊,請參閱相應的《vSphere 指令行指南》。
實施靜态路由時的注意事項:使用靜态路由需要管理者幹預。添加到站點 1 或站點 2 上的群集的任何新 ESXi 主機都需要手動添加靜态路由,然後才能成功與見證伺服器和其他資料站點通信。任何見證主機的替換也需要更新靜态路由,以便于與資料站點的通信。
拓撲 - L2 設計與 L3 設計
考慮這樣一種設計:vSAN 延伸群集在一個大型 L2 設計中配置,其中首選站點(站點 1)和輔助站點(站點 2)是部署虛拟機的位置。見證站點包含見證主機:
如果交換機 1 和交換機 2 之間的連結斷開(站點 1 和站點 2 之間的連結)。網絡tra ffic 現在将通過站點 1 從站點 2 路由到站點 3。考慮到連接配接到見證主機的帶寬要求要低得多,如果網絡tra ffic 通過較低規格的站點 3 路由,客戶将看到性能下降。
如果存在通過見證站點在資料站點之間路由 traffic 不會影響應用程式的延遲且帶寬可接受的情況,則支援站點之間的延伸 L2 配置。但是,在大多數情況下,VMware 認為這樣的設想對大多數客戶來說是不可行的。
為避免上述情況并確定資料傳輸不會通過見證站點路由,VMware 建議使用以下網絡拓撲:
- 在站點 1 和站點 2 之間,實作延伸的 L2(同一子網)或 L3(路由)配置。
- 在資料站點和見證站點之間實作 L3(路由)配置。確定站點 1 和 2 隻能直接連接配接到站點 3,而不能通過備用站點連接配接。需要從資料主機(站點 1 和站點 2)到站點 3 中的見證伺服器的靜态路由。站點 1 中的主機不應周遊站點間連結以通路站點 3。站點 2 中的主機不應周遊站點間連結以通路站點 3。需要從見證主機(站點 3)到資料主機(站點 1 和站點 2)進行靜态路由見證伺服器不應通過站點 1 路由,然後通過站點間連結到達站點 2。見證伺服器不應通過站點 2 路由,然後通過站點間連結到達站點 1。
- 如果任一資料站點網絡發生故障,此配置還将防止站點 1 的任何 tra ffic 通過見證站點 2 路由到站點 3,進而避免任何性能下降。
*如果 vSAN 網絡之間的連接配接被配置為使用L3:
- 站點 1 中的每個主機都需要一個靜态路由,以便 vSAN VMkernel 接口通過站點間鍊路路由到站點 2 中主機的每個 vSAN VMkernel 接口。
- 站點 2 中的每個主機都需要一個靜态路由,以便 vSAN VMkernel 接口通過站點間鍊路路由到站點 1 中主機的每個 vSAN VMkernel 接口。
從資料站點到見證伺服器的網絡配置
下一個問題是如何實作這樣的配置,特别是如果見證主機位于公共雲上?資料站點中主機上的接口(通過 vSAN 網絡互相通信)如何與見證主機通信?
選項 1:通過 L3 和靜态路由連接配接的實體 vSAN 見證主機
在第一個配置中,資料站點通過延伸的L2網絡連接配接。資料站點的管理網絡、vSAN 網絡、vMotion 網絡和虛拟機網絡也是如此。此網絡基礎結構中的實體網絡路由器不會自動将 traffic 從資料站點(站點 1 和站點 2)中的主機路由到站點 3 中的主機。要成功配置 vSAN 延伸叢集,叢集中的所有主機都必須進行通信。如何在此環境中部署延伸群集?
解決方案是使用 ESXi 主機上的靜态路由,以便站點 1 和站點 2 中的 vSAN traffic 可以通路站點 3 中的見證主機,反之亦然。雖然這不是首選配置選項,但此設定對于概念驗證設計非常有用,因為在客戶站點實施所需的網絡更改可能存在問題。
對于資料站點上的 ESXi 主機,必須将靜态路由添加到 vSAN VMkernel 接口,該路由将通過該網絡的預設網關重定向見證站點上見證主機的 traffic。對于見證主機,vSAN 接口必須添加靜态路由,重定向發往資料站點主機的 vSAN traffic。添加靜态路由是使用 esxcfg-route 實作的,這是 ESXi 主機上的一個指令。必須在延伸群集中的所有 ESXi 主機上重複此操作。
為此,必須在 vSAN 網絡 VLAN(在本例中為 VLAN 11 和 21)之間啟用網絡交換機 IP 路由。一旦遠端主機(見證 -> 資料或資料 ->見證)的請求到達,交換機将相應地路由資料包。此通信對于 vSAN 延伸群集正常工作至關重要。
請注意,我們在此處未提及 ESXi 管理網絡。仍需要 vCenter 伺服器來管理資料站點上的 ESXi 主機和 ESXi 見證伺服器。在許多情況下,這對客戶來說不是問題。但是,對于延伸群集,如果不可路由,則可能需要從 vCenter 伺服器添加靜态路由才能到達見證 ESXi 主機的管理網絡,同樣,可能需要将靜态路由添加到 ESXi 見證管理網絡才能到達 vCenter 伺服器。這是因為 vCenter 伺服器将通過預設網關路由所有 traffic。
隻要存在從見證主機到 vCenter 的直接連接配接(不使用 NAT),就不應該有關于管理網絡的其他問題。
另請注意,無需在 vSAN 延伸群集的上下文中配置 vMotion 網絡或虛拟機網絡,也無需為這些網絡添加任何靜态路由。這是因為虛拟機永遠不會遷移或部署到 vSAN 見證主機。它的目的是僅維護見證對象,并且不需要這些網絡中的任何一個來完成此任務。
選項 2:通過 L3 和靜态路由連接配接的虛拟 vSAN 見證主機
要求:由于虛拟 ESXi 見證是在本地部署時将部署在實體 ESXi 主機上的虛拟機,是以底層實體 ESXi 主機至少需要一個虛拟機網絡預配置。此虛拟機網絡需要同時通路資料站點上的 ESXi 主機共享的管理網絡和 vSAN 網絡。實施起來可能更簡單的替代選項是在底層實體 ESXi 主機上設定兩個預先配置的虛拟機網絡,一個用于管理網絡,一個用于 vSAN 網絡。在此實體 ESXi 主機上部署虛拟 ESXi 見證伺服器時,需要相應地連接配接/配置網絡。
成功部署 vSAN 見證裝置後,必須确定靜态路由配置。
和以前一樣,資料站點通過延伸的 L2 網絡連接配接。資料站點的管理網絡、vSAN 網絡、vMotion 網絡和虛拟機網絡也是如此。同樣,此環境中的實體網絡路由器不會自動将 traffic 從首選和輔助資料站點中的主機路由到見證站點中的主機。為了成功配置 vSAN 延伸群集,群集中的所有主機都需要添加靜态路由,以便首選站點和輔助站點中的 vSAN traffic 能夠到達見證站點中的見證主機,反之亦然。如前所述,這不是首選的配置選項,但此設定對于概念驗證設計非常有用,因為在客戶站點實施所需的網絡更改可能存在一些問題。
同樣,靜态路由是使用 ESXi 主機上的 esxcfg-route 指令添加的。必須在群集中的所有 ESXi 主機上(資料站點和見證主機上)重複此操作。
交換機應配置為在資料站點上的 vSAN 網絡 VLAN 和見證站點(在本例中為 VLAN 11 和 21)之間啟用 IP 路由。一旦遠端主機(見證 -> 資料或資料 ->見證)的請求到達,交換機将相應地路由資料包。通過此設定,将形成 vSAN 延伸叢集。
請注意,我們在這裡再次提及管理網絡。如前所述,vCenter 必須管理遠端 ESXi 見證和資料站點上的主機。如有必要,應将靜态路由添加到 vCenter 伺服器,以通路見證 ESXi 主機的管理網絡。同樣,應将靜态路由添加到 ESXi 見證伺服器以通路 vCenter 伺服器。
另請注意,與以前一樣,無需在 vSAN 延伸群集的上下文中連接配接 vMotion 網絡或虛拟機網絡,也無需為這些網絡添加任何靜态路由。這是因為虛拟機永遠不會遷移或部署到 vSAN 見證伺服器。其目的是僅維護見證對象,并且不需要這些網絡中的任何一個來完成此任務。
帶寬計算
如要求部分所述,兩個主站點之間的帶寬要求取決于工作負載,尤其是每個 ESXi 主機的寫入操作數。可能還需要考慮其他因素,例如讀取位置未運作(虛拟機駐留在一個站點上,但從另一個站點讀取資料)和重建流量。
資料站點之間的要求
讀取不包括在計算中,因為我們假設讀取位置,這意味着不應該有站點間讀取 traffic。兩個資料站點之間所需的帶寬 (B) 等于寫入帶寬 (Wb) * 資料乘數 (md) * 重新同步乘數 (mr):
B = Wb *md * mr
資料乘數包括 vSAN 中繼資料 traffic 和其他相關操作的開銷。VMware 建議使用資料乘數 1.4。包含重新同步乘數是為了考慮重新同步事件。建議在重新同步事件所需的帶寬容量之上配置設定帶寬容量。
為重新同步 traffic 騰出空間,建議額外增加 25%。
- 資料站點到資料站點示例 1
假設 6 節點 vSAN 延伸叢集 (3+3+1) 具有以下功能:
工作負載為 35,000 IOPS,其中 10,000 個正在寫入 IOPS
“典型”的 4KB 大小寫入(這需要 40MB/s 或 320Mbps 帶寬)。包括 vSAN 網絡要求在内,所需的帶寬為 560Mbps。 B = 320 Mbps * 1.4 * 1.25 = 560 Mbps。
資料站點到資料站點示例 2
使用具有 VDI(虛拟桌面基礎架構)的 20 節點 vSAN 延伸群集 (10+10+1),具有以下特性: 100,000 IOPS 的工作負載
通常,寫入到讀取的分布分别為 70%/30%,其中 70,000 次是寫入。“典型”4KB大小的寫入(這将需要280 MBps或2.24Gbps帶寬)
包括 vSAN 網絡要求在内,所需的帶寬約為 4Gbps。
B = 280 MBps * 1.4 * 1.25 = 490 MBps 或 3.92Gbps
使用上述公式,具有專用 10Gbps 站點間鍊路的 vSAN 延伸叢集可以容納大約 170,000 個 4KB 寫入 IOPS。客戶需要評估他們的I/O要求,但VMware認為10Gbps将滿足大多數設計要求。
在此配置之上,客戶需要考慮多個 10Gb NIC 組合或 40Gb 網絡。
VMware 建議站點之間至少提供 10Gbps 的網絡連接配接,以獲得最佳性能并可能在未來進行群集擴充。有關 vSAN8 OSA 和 ESA 的更多具體要求,請參見《vSAN 網絡連接配接設計指南》。
讀取位置不可用時的要求
前面的計算僅适用于具有讀取局部性的正常延伸叢集 traffic。如果裝置發生故障,讀取操作還必須周遊站點間網絡。這是因為當使用 NumberOfFailurestoTotoTotorate=1 時,資料的鏡像副本位于備用站點上。
對于處于降級狀态的對象的每 4K 讀取 IO,相同的公式将被添加到上述計算中。預期的讀取 IO 将用于計算額外的帶寬要求。
在單個故障磁盤的示例中,來自 5 個 VM 的對象駐留在故障磁盤上,讀取 IOPS 為 10,000 (4KB),除了上述延伸群集要求外,還需要額外的 40 Mbps,以便在峰值寫入 IO 和重新同步操作期間提供 suffient讀取 IO 帶寬。
資料網站和見證網站之間的要求
見證帶寬的計算方式與資料站點之間的帶寬不同,因為指定為見證的主機不維護任何 VM 資料,而隻維護元件中繼資料,是以要求要小得多。
vSAN 上的虛拟機由多個對象組成,這些對象可以根據政策和大小等因素拆分為多個元件。vSAN 上的元件數量直接影響資料站點與見證伺服器之間的帶寬要求。
見證伺服器和每個站點之間的所需帶寬等于 ~1138 B x 元件數 /5s
1138 B x 數字 / 5 秒
1138 B 值來自首選站點正常運作時的操作,輔助站點獲得所有元件的所有權。
當主站點出現故障時,輔助站點将成為主站點。見證伺服器将更新發送到新的主資料庫,然後在所有權更新時向見證伺服器發送新的主資料庫回複。
每個元件的 1138 B 要求來自從見證到備份代理的有效負載的組合,後跟訓示首選站點出現故障的中繼資料。
如果首選站點發生故障,連結必須足夠大,以允許群集所有權在 5 秒内更改和所有元件的所有權。
見證到現場示例
工作負載 1
VM 由以下部分組成:
- 三個對象 {虛拟機命名空間、vmdk(低于 255GB)和 vmSwap) 容許 1 的故障 (FTT=1)
- 條帶寬度為 1
- 大約 166 個具有上述配置的虛拟機需要見證伺服器包含 996 個元件。
要成功滿足 vSAN 上總共 1,000 個元件的見證帶寬要求,可以使用以下計算:
Converting Bytes (B) to Bits (b), multiply by 8
B = 1138 B * 8 * 1,000 / 5s = 1,820,800 Bits per second = 1.82 Mbps
VMware 建議增加 10% 的安全裕度并四舍五入。
B + 10% = 1.82 Mbps + 182 Kbps = 2.00 Mbps
在包括 10% 的 buffer 的情況下,可以說每 1,000 個元件,2 Mbps 是合适的。
工作負載 2
虛拟機由
- 三個對象 {VM 命名空間、vmdk(低于 255GB)和 vmSwap)
- 不允許 1 (FTT=1)
- 條帶寬度為 2
大約 1,500 個具有上述配置的虛拟機需要在見證伺服器上存儲 18,000 個元件。要成功滿足 vSAN 上 18,000 個元件的見證帶寬要求,計算結果為:
B = 1138 B * 8 * 18,000 / 5s = 32,774,400 Bits per second = 32.78 Mbps
B + 10% = 32.78 Mbps + 3.28 Mbps = 36.05 Mbps
使用每 2,1 個元件 000Mbps 的一般公式 (NumComp/1000) X 2Mbps,可以看出 18,000 個元件實際上需要 36 Mbps。
vSAN 檢測信号的作用
如前所述,在延伸群集配置中部署 vSAN 時,vSAN 主節點将放置在首選站點上,vSAN 備份節點将放置在非首選站點上。隻要首選站點中存在可用的節點(ESXi 主機),則始終會從此站點上的某個節點中選擇主節點。同樣,對于非首選站點,隻要非首選站點上有可用的節點。
vSAN 主節點和 vSAN 備份節點每秒發送檢測信号。如果由于備份節點出現問題,主節點與備份節點之間連續 5 次檢測信号(5 秒)丢失通信,則主節點會選擇不同的 ESXi主機作為遠端站點上的備份。重複此操作,直到檢查遠端站點上的所有主機。如果整個站點發生故障,主節點将從首選站點中選擇備份節點。
當主節點發生故障時,會出現類似的情況。
當節點在完全站點故障後重新加入空站點時,主節點(如果節點加入首選站點)或備份節點(節點加入非首選站點)将遷移到該站點。
如果主節點與 vSAN 見證主機之間連續五次檢測信号(5 秒)丢失通信,則認為 vSAN 見證主機出現故障。如果 vSAN 見證主機永久出現故障,則可以配置新的 vSAN 見證主機并将其添加到群集中。
主機号計算
應用于延伸群集的存儲政策将确定每個站點所需的最小主機數。例如,将站點容災設定為“雙站點鏡像(延伸群集)”,将“容錯數”設定為“1 個故障 – RAID - 5(糾删碼)”,将導緻 3 個資料塊和一個奇偶校驗元件。是以,每個站點至少需要四個主機。最終配置将是4+4+ 1,每個站點 4 個主機和一個見證主機。
從容量的角度來看,如果您有一個 100 GB 的虛拟機,并将站點容災設定為“雙站點鏡像(延伸群集)”,并将容許故障數等于 1 個故障 – RAID - 1(鏡像),則意味着在每個站點中都設定了 RAID 1。在這種情況下,100 GB 的 VM 需要每個位置 200 GB。是以,200% 需要本地容量,400% 需要整個叢集。使用下表,您可以輕松檢視開銷。請注意,RAID-5 和 RAID-6 僅在使用全 fl灰燼時可用。
描述 | 站點容災 | 不能容忍的 | 襲擊 | 每個站點的主機數 | 延伸配置 | 單站點容量 | 叢集總容量 |
标準 跨位置延伸,具有本地保護 | 1 | 1 | 突襲-1 | 3 | 3+3+1 | 虛拟機的 200% | 虛拟機的 400% |
标準 使用本地 RAID-5 跨位置延伸 | 1 | 1 | 突襲-5 | 4 | 4+4+1 | 虛拟機的 133% | 虛拟機的 266% |
标準 使用本地 RAID-6 跨位置延伸 | 1 | 2 | 突襲-6 | 6 | 6+6+1 | 虛拟機的 150% | 虛拟機的 300% |
标準 跨位置延伸 無本地保護 | 1 | 突襲-1 | 1 | 1+1+1 | 虛拟機的 100% | 虛拟機的 200% | |
不拉伸,隻有本地 RAID-1 | 1 | 突襲-1 | 3 | 不适用 | 虛拟機的 200% | 不适用 | |
不拉伸,隻有本地 RAID-5 | 1 | 突襲-5 | 4 | 不适用 | 虛拟機的 133% | 不适用 | |
不拉伸,隻有本地 RAID-6 | 2 | 突襲-6 | 6 | 不适用 | 虛拟機的 150% | 不适用。 |
群集設定 – vSphere HA
某些 vSphere HA 行為已修改,尤其是對于 vSAN 的行為。它基于每個虛拟機檢查虛拟機的狀态。vSphere HA 可以根據可從特定分區通路的屬于虛拟機的元件數量來決定是否應進行虛拟機故障切換。
在 vSAN 延伸群集上配置 vSphere HA 時,VMware 建議執行以下操作:
vSphere HA | 開 |
主機監控 | 啟用 |
主機硬體監控 – 虛拟機元件保護:“防止存儲連接配接丢失” | 已禁用(預設) |
虛拟機監控 | 客戶首選項 – 預設禁用 |
準入控制 | 設定為 50% |
主機隔離響應 | 關閉并重新啟動虛拟機電源 |
資料存儲檢測信号 | “僅使用指定清單中的資料存儲”,但不要從清單中選擇任何資料存儲。這将禁用資料存儲檢測信号 |
進階設定: | |
das.usedefaultisolationaddress | 假 |
das.isolationaddress0 | 站點 1 上 vSAN 網絡上的 IP 位址 |
das.isolationaddress1 | 站點 2 上 vSAN 網絡上的 IP 位址 |
das.ignoreInenoughHbDatastore | 真 |
始終使用與 vSAN 位于同一網絡中的隔離位址。這可確定使用 vSAN VMkernel 界面驗證隔離。在不可路由的 vSAN 網絡中,可以在每個站點的實體交換機上建立交換機虛拟接口。這将在 vSAN 分段上提供一個可用于 das.isolationaddress 條目的隔離位址 IP。
打開 vSphere HA
要打開 vSphere HA,請在 vCenter 清單中選擇群集對象,依次選擇管理,然後選擇 vSphere HA。在這裡,可以通過複選框打開和關閉 vSphere HA。
主機監控
應在 vSAN 延伸群集配置上啟用主機監控。此功能使用網絡檢測信号來确定參與群集的主機的狀态,以及是否需要采取糾正措施,例如重新啟動群集中其他節點上的虛拟機。
主機隔離的虛拟機響應
此設定确定隔離主機上的虛拟機會發生什麼情況,即無法再與群集中的其他節點通信或到達隔離響應 IP 位址的主機。VMware 建議主機隔離響應為打開ff 電源并重新啟動虛拟機。這是因為無法完全關閉,因為在隔離主機上,對 vSAN 資料存儲的通路權限和寫入磁盤的功能将丢失。
準入控制
準入控制可確定 HA 擁有足夠的資源在發生故障後重新啟動虛拟機。由于整個站點故障是彈性體系結構中需要考慮的一種情況,是以 VMware 建議啟用 vSphere HA 準入控制。工作負載的可用性是大多數延伸群集環境的主要驅動因素。是以,必須有足夠的容量可用于整個站點故障。由于 ESXi 主機将在 vSAN 延伸群集中的兩個站點之間平均配置設定,并且為了確定 vSphere HA 可以重新啟動所有工作負載,是以 VMware 建議将記憶體和 CPU 的準入控制政策調整為 50%。
VMware 建議使用基于百分比的政策,因為它具有最大的靈活性并減少營運開銷。有關接入控制政策和相關算法的更多詳細資訊,建議參閱《vSphere 可用性指南》。
以下螢幕截圖顯示了使用設定為 50% 的基于百分比的準入控制政策啟用準入控制的 vSphere HA 群集。
vSAN 無法識别準入控制。無法通知 vSAN 留出額外的存儲資源來容納在單個站點上運作的完全合規的虛拟機。這是管理者在發生故障時實作此類配置的附加操作步驟。
主機硬體監控 – 虛拟機元件保護
vSphere 6.0 為 vSphere HA 引入了一項稱為虛拟機元件保護 (VMCP) 的新增強功能,允許對駐留在具有“所有路徑關閉”(APD) 或“永久裝置丢失”(PDL) 條件的資料存儲上的虛拟機進行自動故障切換。
永久裝置丢失情況 (PDL) 是存儲控制器通過 SCSI 感覺代碼與 ESXi 主機通信的情況。這種情況表示磁盤裝置已變得不可用,并且可能永久不可用。當存儲控制器無法将狀态傳達給 ESXi 主機時,該條件将被視為“所有路徑關閉”(APD) 條件。
在傳統資料存儲中,資料存儲上的 APD/PDL會影響使用該資料存儲的所有虛拟機。但是,對于 vSAN,情況可能并非如此。APD/PDL 隻能包含一個或多個虛拟機,但不能包含 vSAN 資料存儲上的所有虛拟機。此外,如果 APD/PDL 發生在一部分主機上,則無法保證其餘主機将有權通路所有虛拟機對象并能夠重新啟動虛拟機。是以,分區可能會導緻虛拟機無法在任何分區上通路。
虛拟機元件保護 (VMCP) 處理故障轉移的方法是終止正在運作的虛拟機,然後在群集中的其他位置重新啟動它。VMCP/HA 無法确定 vSAN 上虛拟機的群集範圍可通路性,是以無法保證虛拟機在終止後可以在其他位置重新啟動。例如,資源可能可用于重新啟動虛拟機,但 HA 不知道群集中其餘主機對虛拟機的可通路性。這對于傳統資料存儲來說不是問題,因為我們知道整個叢集的主機-資料存儲可通路性,并且通過使用它,我們可以确定是否可以在主機上重新啟動虛拟機。
目前,vSphere HA 無法了解 vSAN 上每個虛拟機的完全不可通路與部分不可通路;是以,HA 缺乏對 vSAN 的 VMCP 支援。
VMware 建議禁用虛拟機元件保護 (VMCP)。
檢測信号資料存儲
vSphere HA 提供了一種額外的檢測信号機制,用于确定群集中主機的狀态。這是對網絡檢測信号的補充,稱為“資料存儲檢測信号”。在許多 vSAN 環境中,vSAN 之外沒有其他資料存儲可用。是以,VMware 建議禁用檢測信号資料存儲,因為 vSAN 資料存儲不能用于檢測信号。但是,如果有其他資料存儲可用,則完全支援使用檢測信号資料存儲。
檢測信号資料存儲有什麼作用,何時發揮作用?隔離主機使用檢測信号資料存儲通知叢集的其餘部分其和虛拟機的狀态。當主機處于隔離狀态,并且隔離響應配置為“電源 off”或“關閉”時,當虛拟機因隔離而通電(或關閉)時,檢測信号資料存儲将用于通知叢集的其餘部分。這允許 vSphere HA 主節點立即重新啟動受影響的虛拟機。
要禁用資料存儲檢測信号,請在 vSphere HA 設定下,打開檢測信号資料存儲部分。選擇“僅使用指定清單中的資料存儲”,并確定未選擇任何資料存儲(如果存在)。資料存儲檢測信号現已在叢集上禁用。請注意,這可能會在主機的摘要頁籤中産生通知,指出此主機的 vSphere HA 檢測信号資料存儲數為 0,小于所需數量:2。可以通過以下知識庫文章 2004739 删除此消息,該文章詳細介紹了如何添加進階設定 das.ignoreInsufficientHbDatastore = true。
進階選項
在 vSAN 群集上啟用 vSphere HA 後,将使用檢測信号機制來驗證 ESXi 主機的狀态。網絡檢測信号是 HA 驗證主機可用性的主要機制。
假設主機未收到任何檢測信号。在這種情況下,它使用故障安全機制來檢測它是與其 HA 主節點隔離還是與網絡完全隔離。它通過 ping 預設網關來實作此目的。
在 vSAN 環境中,vSphere HA 使用 vSAN traffic 網絡進行通信。這與使用管理網絡進行 vSphere HA 通信的傳統 vSphere 環境不同。但是,即使在 vSAN 環境中,vSphere HA 也會繼續使用管理網絡的預設網關進行隔離檢測響應。應更改此設定,以便隔離響應 IP 位址位于 vSAN 網絡上,因為這允許 HA 對 vSAN 網絡故障做出反應。
除了在 vSAN 網絡上選擇隔離響應位址外,還可以手動指定其他隔離位址,以增強隔離驗證的可靠性。
網絡隔離響應和多個隔離響應位址
在 vSAN 延伸群集中,其中一個隔離位址應位于站點 1 資料中心中,另一個隔離位址應位于站點 2 資料中心中。這将使 vSphere HA 即使在分區方案(站點之間的網絡故障)的情況下也能驗證主機隔離。
VMware 建議啟用主機隔離響應,并指定位于 vSAN 網絡而不是管理網絡上的隔離響應位址。
vSphere HA 進階設定 das.usedefaultisolationaddress 應設定為 false。
VMware 建議指定另外兩個隔離響應位址,每個位址都應指定站點。換句話說,從首選站點選擇一個隔離響應 IP 位址,從非首選站點選擇另一個隔離響應 IP 位址。
用于設定第一個隔離響應 IP 位址的 vSphere HA 進階設定為 das.isolationaddress0,并且應将其設定為駐留在一個站點上的 vSAN 網絡上的 IP 位址。
用于添加第二個隔離響應 IP 位址的 vSphere HA 進階設定為 das.isolationaddress1,這應該是駐留在備用站點上的 vSAN 網絡上的 IP 位址。
群集設定 - DRS
vSphere DRS 在許多環境中用于在群集内配置設定負載。vSphere DRS提供了許多其他功能,這些功能在 vSAN 延伸群集環境中非常有用。
如果管理者希望在 vSAN 延伸群集上啟用 DRS,則需要具有 vSphere Enterprise Plus 許可證版本或更高版本。vSphere Enterprise for ROBO 許可證在将主機置于或退出維護模式時提供 DRS 功能。
VM/主機組和規則以及 vSphere DRS
建議建立将 VM 映射到主機組的 VM 到主機關聯性規則。這些指定哪些虛拟機和主機駐留在首選站點中,哪些虛拟機和主機駐留在非首選站點中。使用主機/虛拟機組和規則,管理者可以輕松管理哪些虛拟機應在哪個站點上運作,并在站點之間平衡工作負載。在下一節中,将讨論主機/虛拟機組和規則。
與虛拟機一起使用以托管 Affi組/規則時,vSphere DRS 位址: 管理者可以輕松地在站點之間平衡工作負載。
打開虛拟機電源後,隻會在符合虛拟機/主機組和規則設定的主機上打開虛拟機電源。
VM/主機組将在下一節中更詳細地讨論。
完整的站點故障/恢複和 vSphere DRS
發生整個站點故障時,vSphere HA 将重新啟動其餘站點上的所有虛拟機。
虛拟機/主機規則:對于發生故障時可在備用站點上運作的工作負載,應設定為“應在組中的主機上運作”。對于隻應在單個站點上運作的工作負載,例如在非對稱延伸群集的情況下或使用站點 Affi存儲政策時,應使用“必須在組中的主機上運作”規則。有關詳細資訊,請參閱每個站點的政策注意事項部分。
部分自動或全自動 DRS
客戶可以決定是将 DRS 置于部分自動模式還是全自動模式。在部分自動化模式下,DRS 将處理虛拟機的初始放置。但是,任何進一步的遷移建議都将向管理者顯示,以決定是否移動虛拟機。管理者可以檢查建議,并可能決定不遷移虛拟機。建議應針對同一站點上的主機。
DRS 将在全自動模式下處理虛拟機的初始放置和持續的負載平衡。DRS 應遵守主機/虛拟機組和規則,并且切勿在不同站點之間平衡虛拟機。這一點很重要,因為 vSAN 延伸群集上的虛拟機将使用讀取局部性,這意味着它們将在本地緩存。如果 DRS 将虛拟機遷移到其他站點,則必須在遠端站點上預熱緩存,然後才能達到其以前的性能級别。
全自動模式的一個重要考慮因素是站點故障。考慮這樣一種情況:站點出現故障,并且所有虛拟機現在都在單個站點上運作。正在運作的站點上的所有虛拟機都具有正在運作的站點的讀取位置,并在正在運作的站點上緩存其資料。也許停電已經幾個小時甚至一天了。故障站點上的問題已得到解決(例如電源、網絡等)。當恢複的主機上的主機重新加入 vSAN 群集時,必須将所有元件從正在運作的站點重新同步到恢複的站點。這可能需要一些時間。但是,與此同時,DRS 會通知主機已傳回到群集中。如果在全自動模式下,則會檢查ffinity 規則,顯然,許多規則不合規。是以,DRS 開始将虛拟機移回恢複的站點,但元件可能尚未處于活動狀态(即仍在同步)。是以,虛拟機最終可能會位于恢複的站點上,但由于沒有資料的本地副本,是以來自這些虛拟機的 I/O 必須周遊站點之間的連結到活動資料副本。由于延遲/性能問題,這是不可取的。是以,出于此原因,VMware 建議在發生中斷時将 DRS 置于部分自動化模式。當恢複的站點上的主機聯機時,将繼續通知客戶有關 DRS 建議的資訊。不過,他們現在可以等到 vSAN 完全重新同步虛拟機元件。然後,可以将 DRS 更改回全自動模式,進而允許虛拟機遷移符合虛拟機/主機ffi規則。
vSAN 7 Update 2 中 vSAN 延伸群集的 DRS 感覺
vSAN 延伸群集的 DRS 感覺功能内置于 vSAN 7 Update 2 中。無需更改配置或操作流程。它适用于所有ffinity 規則。對于以前版本的 vSAN ,建議将 DRS 自動化設定為手動或部分自動化。在 vSAN 7 Update 2 中,可以将其設定為完全自動化,以便從具有 vSAN 延伸叢集的 DRS 中獲得最大優勢。
vSphere 的 DRS 與 vSAN Update 2 緊密內建,引入了全自動讀取局部性解決方案,用于從 vSAN 延伸群集上的故障中恢複。讀取位置資訊訓示虛拟機具有完全通路權限的主機,DRS 在将虛拟機放置在 vSAN 延伸群集上的主機上時會使用此資訊。vSAN 重新同步完成且虛拟機的資料元件實作完全讀取局部後,DRS 會将虛拟機遷移回主站點。此 DRS 将在站點發生故障時置于全自動模式。
如果發生部分站點故障,如果虛拟機由于丢失的資料元件等于或大于其允許的故障數而丢失讀取局部性,vSphere DRS 将識别消耗非常高讀取帶寬的虛拟機,并嘗試将其重新平衡到輔助站點。這樣,我們可確定在部分站點故障期間,具有讀取密集型工作負載的 VM 不會受到影響。主站點重新聯機并且資料元件重新同步後,VM 将移回其所屬站點。
VM/主機組和規則
VMware 建議啟用 vSphere DRS,以允許建立 Host-VMffi規則。
VMware還建議建立虛拟機/主機組和規則,并使用vSphere DRS執行虛拟機的初始放置,并避免站點之間不必要的虛拟機vMotion。
由于 vSAN 延伸群集仍然是單個群集,是以 DRS 不知道它由不同的站點組成,是以可能會決定在它們之間移動虛拟機。使用虛拟機/主機組将允許管理者将虛拟機“固定”到站點,進而防止不必要的 vMotion/遷移。
vSAN 延伸群集使用讀取位置性來確定僅在虛拟機所在的站點中進行讀取。在混合 vSAN 延伸群集配置中,讀取緩存僅在虛拟機所在的站點上處于暖狀态。如果将 VM 遷移到備用站點,則必須預熱讀取案例。確定 VM 不會在站點之間自由移動将克服不必要地預熱緩存的需要。
請注意,vSAN 延伸群集有自己的首選站點概念。這是在配置期間設定的,指的是在出現裂腦的情況下哪個站點接管。它與虛拟機放置無關。它用于首選站點和非首選站點之間存在分區的情況,而 vSAN 見證主機可以與這兩個站點通信。本文檔稍後将讨論更詳細的故障方案。
主機組
使用 vSAN 延伸群集來計算DRS 時,VMware 建議建立主機 A 系列和虛拟機 A系列組。
每個站點中的主機應分組為以站點為中心的主機組。與以站點為中心的組中的主機配對時,可以輕松确定配置設定給虛拟機組的虛拟機,以确定允許虛拟機運作的位置。
虛拟機組
還應根據要運作 VM 的位置建立 VM 組。
VM 組應包括具有類似放置要求的 VM。
上面的示例顯示了包含多個 VM 的 VM 組。VM 組的命名表明這些 VM 可能會在站點 A 上運作。
為此,必須建立虛拟機/主機規則。VM 組本身不執行除對 VM 進行分組之外的任何功能。
請記住,必須在部署後将 VM 配置設定給 VM 組。這可以在 vSphere Client 中完成,也可以通過 API 調用或 PowerCLI 腳本完成。
虛拟機/主機規則
在 vSAN 延伸群集上部署虛拟機時,在大多數情況下,我們希望虛拟機駐留在所選主機組中的一組主機上。但是,如果整個站點發生故障,我們希望在幸存的站點上重新啟動虛拟機。
VMware 建議在虛拟機/主機規則配置部分中實施“應遵守規則”來實作此目的。在全站點中斷的情況下,vSphere HA 可能會違反這些規則。如果實施了“必須規則”,vSphere HA 不會違反規則集,這可能會導緻服務中斷。vSphere HA 不會重新啟動虛拟機,因為它們沒有在其他站點中的主機上啟動所需的ffi。是以,實施“應該規則”的建議将允許 vSphere HA 重新啟動其他站點中的虛拟機。
vSphere HA 規則設定位于虛拟機/主機規則部分。這允許管理者決定允許哪些虛拟機(屬于 VM 組)在哪些主機(屬于主機組)上運作。它還允許管理者決定“虛拟機托管ffi規則”的執行程度。
如上所述,主機VM規則應設定為“應遵守”,以允許在一個站點上的主機上啟動虛拟機,以防整個站點發生故障。要實作“應規則”,方法是單擊虛拟機/主機規則視圖底部 vSphere HA 規則設定中的編輯按鈕,并将虛拟機設定為托管ffi ffinity規則,以“vSphere HA 在故障切換期間應遵守規則”。預設情況下,vSphere HA 将盡可能遵守這些規則。
vSphere DRS 将這些規則傳達給 vSphere HA,這些規則存儲在管理允許啟動行為的“相容性清單”中。再次請注意,如果出現整個站點故障,vSphere HA 将能夠在違反規則的主機上重新啟動虛拟機。在這種情況下,可用性優先。
每站點政策規則注意事項
随着每站點政策規則的引入,虛拟機/主機組規則比以往任何時候都更加重要。
米斯康形象
完全有可能讓虛拟機存儲政策使用A ffinity 規則将資料放置在一個站點中,而虛拟機/主機組規則将虛拟機放置在備用站點中。
以下是這種騙局的例證:
在本地網絡上,這可能不是一個重大問題。在延伸叢集配置中,站點分布在較大的地理距離上,這被認為是錯誤配置。這是因為當 VM 不在同一站點上運作時,讀取和寫入必須周遊站點間連結。
在存儲資料的對面站點上運作的 VM 會消耗額外的不必要的帶寬。此帶寬應保留在同一站點内,以確定較低的帶寬使用率。
當備用站點斷開連接配接時,虛拟機将無法再通路其 vmdk,并且實際上将成為僵屍虛拟機。
正确的配置。
正确的配置包括虛拟機/主機組規則,這些規則與相應的虛拟機存儲政策配置設定給虛拟機的關聯性規則保持一緻。
設定适當的虛拟機/主機組規則和虛拟機存儲政策由于多種原因,規則是有益的
- 不會不必要地通過站點間連結發送帶寬
- 降低站點間帶寬使用率
- 在備用站點斷開連接配接的情況下,虛拟機将繼續有權通路其 vmdk。
總結
重要的是要確定制定适當的規則以保持正确使用的要求。VMware 建議使用虛拟機/主機組規則以及僅存儲在兩個資料站點之一上的虛拟機存儲政策的ffi規則。