目錄
文章目錄
- 目錄
- CIPU
- CIPU 的定位
- CIPU 的 10 大能力
- IO 硬體裝置虛拟化
- VPC overlay network 硬體加速
- EBS 分布式存儲接入硬體加速
- 本地存儲虛拟化硬體加速
- 彈性 RDMA
- 安全硬體加速
- 雲可運維能力支撐
- 彈性裸金屬支援
- CIPU 池化能力
- 計算虛拟化支撐
CIPU
與傳統的 SmartNIC 廠家比,雲計算巨頭完全是為了滿足自身雲計算需求。在他們看來,SmartNIC 就是一個完整的計算、存儲、網絡一體化處理單元,隻視乎于想把如何具體的業務解除安裝下來,而具體業務隻有使用雲廠商自己最清楚了。
是以,對雲廠商來說,自研 SmartNIC 似乎是一條正确的道路,其 “智能網卡” 的概念已經很薄弱了,它不僅僅是個 NIC 這麼簡單,它已經深深的融入他們的血液裡了。
2017 年,阿裡雲開始部署完全自研的 X-Dragon MOC 卡。
![](https://img.laitimes.com/img/9ZDMuAjOiMmIsIjOiQnIsICM1czX3xCZlhXam9VbsUmepNXZy9CXwJWZ3xCdh1mcvZ2Lc1zaHRGcWdUYuVzVa9GczoVdG1mWfVGc5RHLwIzX39GZhh2csATMflHLwEzX4xSZz91ZsAzMfRHLGZkRGZkRfJ3bs92YskmNhVTYykVNQJVMRhXVEF1X0hXZ0xiNx8VZ6l2cssmch1mclRXY39CXldWYtlWPzNXZj9mcw1ycz9WL49zZuBnL0MTO5QmMlZzYwEWNyYmYyYzX2MTO0ADMyAzLcdDMyIDMy8CXn9Gbi9CXzV2Zh1WavwVbvNmLvR3YxUjLyM3Lc9CX6MHc0RHaiojIsJye.png)
在 2022 年阿裡雲峰會上,釋出了一款雲資料中心專用處理器 CIPU(Cloud infrastructure Processing Units,雲基礎設施處理器)。把 IDC 計算、存儲、網絡基礎設施雲化并且硬體加速的專用業務處理器。
CIPU 的定位
CIPU 要在通用标量計算和 AI 矢量計算等業務領域,去完成 XEON ALU 算力和 GPU stream processor 的 offloading 顯然不現實。CIPU 适合的業務類型的共同業務特征:在資料流動(移動)過程中,通過深度垂直軟硬體協同設計,盡最大可能減少資料移動,以此提升計算效率。
是以,CIPU 在計算機體系架構視角的主要工作是:優化雲計算伺服器之間和伺服器内部的資料層級化 cache、記憶體和存儲的通路效率。
CIPU 随路異構計算(位于網絡和存儲必經之路) = 近網絡計算(in networking computing)+ 近存儲計算(in storage computing)
CIPU 的 10 大能力
IO 硬體裝置虛拟化
通過 VT-d 的前置支撐技術,實作高性能的 IO 硬體裝置虛拟化。
同時考慮公有雲 OS 生态相容,裝置模型應該盡最大努力做到相容。是以實作基于 virtio-net、virtio-blk、NVMe 等業界标準的 IO 裝置模型,成為了必須。
同時注意到 IO 裝置的高性能,那麼在 PCIe 協定層面的優化則至關重要。如何減少 PCIe TLP 通信量、降低 Guest OS 中斷數量(同時平衡時延需求),實作靈活的硬體隊列資源池化,新 IO 業務的可程式設計和可配置的靈活性等方面,是決定 IO 硬體裝置虛拟化實作優劣的關鍵。
VPC overlay network 硬體加速
網絡虛拟化的業務需求有:
- 需求 1:帶寬線速處理能力;
- 需求 2:極緻 E2E 低延遲時間和低延遲時間抖動;
- 需求 3:不丢包條件下的高 pps 轉發能力。
目前傳統方案遇到的挑戰:
- 100Gbps+ 大帶寬資料移動,導緻 “馮諾依曼記憶體牆” 問題突出;
- CPU 标量處理網絡虛拟化業務,并行性瓶頸明顯;
- 基于軟體的資料路徑處理,時延抖動難以克服。
此時,基于硬體轉發加速的業務需求誕生,技術實作層面可以分為:
- 類似于 MNLX ASAP、Intel FXP、Broadcom trueflow 等基于可配置的 ASIC 轉發技術:具備最高的性瓦比和最低的轉發時延,但是業務靈活性就比較捉襟見肘;
- 基于 many core 的 NPU 技術:具備一定的轉發業務靈活性,但是 PPA(power-performance-area)效率和轉發時延無法和可配置 ASIC 競争。
- FPGA 可重配置邏輯實作轉發技術:time to market 能力有很大優勢,但是對于 400Gbps/800Gbps 轉發業務,挑戰很大。
EBS 分布式存儲接入硬體加速
公有雲存儲要實作 9 個 9 的資料持久性,且計算和存儲要滿足彈性業務需求,必然導緻存算分離。EBS(阿裡雲塊存儲)必須在機頭 Initiator 高性能、低延遲時間地接入機尾的分布式存儲 Target。
具體需求層面:
- EBS 作為實時存儲,必須實作 E2E 極緻低延遲時間和極緻 P9999 時延抖動;
- 實作線速存儲 IO 轉發,諸如 200Gbps 網絡環境下實作 6M IOPS;
- 新一代 NVMe 硬體 IO 虛拟化,滿足共享盤業務需求的同時,解決 PV NVMe 半虛拟化 IO 性能瓶頸。
本地存儲虛拟化硬體加速
本地存儲,雖然不具備諸如 EBS 9 個 9 的資料持久性和可靠性,但是在低成本、高性能、低延遲時間等方面仍然具備優勢,對計算 Cache、大資料等業務場景而言是剛需。
如果做到本地盤虛拟化之後,帶寬、IOPS、時延的零衰減,同時兼具一虛多、QoS 隔離能力、可運維能力,是本地存儲虛拟化硬體加速的核心競争力。
彈性 RDMA
RDMA 網絡在 HPC、AI、大資料、資料庫、存儲等 Data centric 業務中,扮演愈來愈重要的技術角色。可以說,RDMA 網絡已經成為了 Data centric 業務差異化能力的關鍵。
具體需求:
- 基于雲上 Overlay 網絡大規模部署,Overlay 網絡可達的地方,RDMA 網絡可達;
- RDMA verbs 生态 100% 相容,IaaS 零代碼修改是業務成敗的關鍵;
- 超大規模部署,傳統 RoCE 技術基于 PFC 等 Data center bridging 技術,在網絡規模和交換網絡運維等諸多方面,已經難以為繼。雲上彈性 RDMA 技術需要擺脫 PFC 和無損網絡依賴。
安全硬體加速
持續加強硬體可信技術、VPC 東西向流量全加密、EBS 和本地盤虛拟化資料全量加密,基于硬體的 Enclave 技術等,是雲廠商持續提升雲業務競争力的關鍵。
雲可運維能力支撐
雲計算的核心是 Service(服務化),進而實作使用者對 IT 資源的免運維。而 IaaS 彈性計算可運維能力的核心是:
- 全業務元件的無損熱更新能力
- 虛拟機的無損熱遷移能力。
彈性裸金屬支援
彈性裸金屬在具體定義層面必須實作如下八項關鍵業務特征。同時,雲計算彈性業務必然要求彈性裸金屬、虛拟機、安全容器等計算資源的并池生産和排程。