天天看點

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

最近幾年,FPGA這個概念越來越多地出現。例如,比特币挖礦,就有使用基于FPGA的礦機。還有,之前微軟表示,将在資料中心裡,使用FPGA“代替”CPU,等等。

其實,對于專業人士來說,FPGA并不陌生,它一直都被廣泛使用。但是,大部分人還不是太了解它,對它有很多疑問——FPGA到底是什麼?為什麼要使用它?相比 CPU、GPU、ASIC(專用晶片),FPGA有什麼特點?……

今天,帶着這一系列的問題,我們一起來——揭秘FPGA。

一、為什麼使用 FPGA?

衆所周知,通用處理器(CPU)的摩爾定律已入暮年,而機器學習和 Web 服務的規模卻在指數級增長。

人們使用定制硬體來加速常見的計算任務,然而日新月異的行業又要求這些定制的硬體可被重新程式設計來執行新類型的計算任務。

FPGA 正是一種硬體可重構的體系結構。它的英文全稱是Field Programmable Gate Array,中文名是現場可程式設計門陣列。

FPGA常年來被用作專用晶片(ASIC)的小批量替代品,然而近年來在微軟、百度等公司的資料中心大規模部署,以同時提供強大的計算能力和足夠的靈活性。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

不同體系結構性能和靈活性的比較

FPGA 為什麼快?「都是同行襯托得好」。

CPU、GPU 都屬于馮·諾依曼結構,指令譯碼執行、共享記憶體。FPGA 之是以比 CPU 甚至 GPU 能效高,本質上是無指令、無需共享記憶體的體系結構帶來的福利。

馮氏結構中,由于執行單元(如 CPU 核)可能執行任意指令,就需要有指令存儲器、譯碼器、各種指令的運算器、分支跳轉處理邏輯。由于指令流的控制邏輯複雜,不可能有太多條獨立的指令流,是以 GPU 使用 SIMD(單指令流多資料流)來讓多個執行單元以同樣的步調處理不同的資料,CPU 也支援 SIMD 指令。

而 FPGA 每個邏輯單元的功能在重程式設計(燒寫)時就已經确定,不需要指令。

馮氏結構中使用記憶體有兩種作用。一是儲存狀态,二是在執行單元間通信。

由于記憶體是共享的,就需要做通路仲裁;為了利用通路局部性,每個執行單元有一個私有的緩存,這就要維持執行部件間緩存的一緻性。

對于儲存狀态的需求,FPGA 中的寄存器和片上記憶體(BRAM)是屬于各自的控制邏輯的,無需不必要的仲裁和緩存。

對于通信的需求,FPGA 每個邏輯單元與周圍邏輯單元的連接配接在重程式設計(燒寫)時就已經确定,并不需要通過共享記憶體來通信。

說了這麼多三千英尺高度的話,FPGA 實際的表現如何呢?我們分别來看計算密集型任務和通信密集型任務。

計算密集型任務的例子包括矩陣運算、圖像處理、機器學習、壓縮、非對稱加密、Bing 搜尋的排序等。這類任務一般是 CPU 把任務解除安裝(offload)給 FPGA 去執行。對這類任務,目前我們正在用的 Altera(似乎應該叫 Intel 了,我還是習慣叫 Altera……)Stratix V FPGA 的整數乘法運算性能與 20 核的 CPU 基本相當,浮點乘法運算性能與 8 核的 CPU 基本相當,而比 GPU 低一個數量級。我們即将用上的下一代 FPGA,Stratix 10,将配備更多的乘法器和硬體浮點運算部件,進而理論上可達到與現在的頂級 GPU 計算卡旗鼓相當的計算能力。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

FPGA 的整數乘法運算能力(估計值,不使用 DSP,根據邏輯資源占用量估計)

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

FPGA 的浮點乘法運算能力(估計值,float16 用軟核,float 32 用硬核)

在資料中心,FPGA 相比 GPU 的核心優勢在于延遲。

像 Bing 搜尋排序這樣的任務,要盡可能快地傳回搜尋結果,就需要盡可能降低每一步的延遲。

如果使用 GPU 來加速,要想充分利用 GPU 的計算能力,batch size 就不能太小,延遲将高達毫秒量級。

使用 FPGA 來加速的話,隻需要微秒級的 PCIe 延遲(我們現在的 FPGA 是作為一塊 PCIe 加速卡)。

未來 Intel 推出通過 QPI 連接配接的 Xeon + FPGA 之後,CPU 和 FPGA 之間的延遲更可以降到 100 納秒以下,跟通路主存沒什麼差別了。

FPGA 為什麼比 GPU 的延遲低這麼多?

這本質上是體系結構的差別。

FPGA 同時擁有流水線并行和資料并行,而 GPU 幾乎隻有資料并行(流水線深度受限)。

例如處理一個資料包有 10 個步驟,FPGA 可以搭建一個 10 級流水線,流水線的不同級在處理不同的資料包,每個資料包流經 10 級之後處理完成。每處理完成一個資料包,就能馬上輸出。

而 GPU 的資料并行方法是做 10 個計算單元,每個計算單元也在處理不同的資料包,然而所有的計算單元必須按照統一的步調,做相同的事情(SIMD,Single Instruction Multiple Data)。這就要求 10 個資料包必須一起輸入、一起輸出,輸入輸出的延遲增加了。

當任務是逐個而非成批到達的時候,流水線并行比資料并行可實作更低的延遲。是以對流式計算的任務,FPGA 比 GPU 天生有延遲方面的優勢。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

計算密集型任務,CPU、GPU、FPGA、ASIC 的數量級比較(以 16 位整數乘法為例,數字僅為數量級的估計

ASIC 專用晶片在吞吐量、延遲和功耗三方面都無可指摘,但微軟并沒有采用,出于兩個原因:

  • 資料中心的計算任務是靈活多變的,而 ASIC 研發成本高、周期長。好不容易大規模部署了一批某種神經網絡的加速卡,結果另一種神經網絡更火了,錢就白費了。FPGA 隻需要幾百毫秒就可以更新邏輯功能。FPGA 的靈活性可以保護投資,事實上,微軟現在的 FPGA 玩法與最初的設想大不相同。
  • 資料中心是租給不同的租戶使用的,如果有的機器上有神經網絡加速卡,有的機器上有 Bing 搜尋加速卡,有的機器上有網絡虛拟化加速卡,任務的排程和伺服器的運維會很麻煩。使用 FPGA 可以保持資料中心的同構性。

接下來看通信密集型任務。

相比計算密集型任務,通信密集型任務對每個輸入資料的處理不甚複雜,基本上簡單算算就輸出了,這時通信往往會成為瓶頸。對稱加密、防火牆、網絡虛拟化都是通信密集型的例子。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

通信密集型任務,CPU、GPU、FPGA、ASIC 的數量級比較(以 64 位元組網絡資料包處理為例,數字僅為數量級的估計)

對通信密集型任務,FPGA 相比 CPU、GPU 的優勢就更大了。

從吞吐量上講,FPGA 上的收發器可以直接接上 40 Gbps 甚至 100 Gbps 的網線,以線速處理任意大小的資料包;而 CPU 需要從網卡把資料包收上來才能處理,很多網卡是不能線速處理 64 位元組的小資料包的。盡管可以通過插多塊網卡來達到高性能,但 CPU 和主機闆支援的 PCIe 插槽數量往往有限,而且網卡、交換機本身也價格不菲。

從延遲上講,網卡把資料包收到 CPU,CPU 再發給網卡,即使使用 DPDK 這樣高性能的資料包處理架構,延遲也有 4~5 微秒。更嚴重的問題是,通用 CPU 的延遲不夠穩定。例如當負載較高時,轉發延遲可能升到幾十微秒甚至更高(如下圖所示);現代作業系統中的時鐘中斷和任務排程也增加了延遲的不确定性。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

ClickNP(FPGA)與 Dell S6000 交換機(商用交換機晶片)、Click+DPDK(CPU)和 Linux(CPU)的轉發延遲比較,error bar 表示 5% 和 95%。來源:[5]

雖然 GPU 也可以高性能處理資料包,但 GPU 是沒有網口的,意味着需要首先把資料包由網卡收上來,再讓 GPU 去做處理。這樣吞吐量受到 CPU 和/或網卡的限制。GPU 本身的延遲就更不必說了。

那麼為什麼不把這些網絡功能做進網卡,或者使用可程式設計交換機呢?ASIC 的靈活性仍然是硬傷。

盡管目前有越來越強大的可程式設計交換機晶片,比如支援 P4 語言的 Tofino,ASIC 仍然不能做複雜的有狀态處理,比如某種自定義的加密算法。

綜上,在資料中心裡 FPGA 的主要優勢是穩定又極低的延遲,适用于流式的計算密集型任務和通信密集型任務。

二、微軟部署 FPGA 的實踐

2016 年 9 月,《連線》(Wired)雜志發表了一篇《微軟把未來押注在 FPGA 上》的報道 [3],講述了 Catapult 項目的前世今生。

緊接着,Catapult 項目的老大 Doug Burger 在 Ignite 2016 大會上與微軟 CEO Satya Nadella 一起做了 FPGA 加速機器翻譯的示範。

示範的總計算能力是 103 萬 T ops,也就是 1.03 Exa-op,相當于 10 萬塊頂級 GPU 計算卡。一塊 FPGA(加上闆上記憶體和網絡接口等)的功耗大約是 30 W,僅增加了整個伺服器功耗的十分之一。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

Ignite 2016 上的示範:每秒 1 Exa-op (10^18) 的機器翻譯運算能力

微軟部署 FPGA 并不是一帆風順的。對于把 FPGA 部署在哪裡這個問題,大緻經曆了三個階段:

  • 專用的 FPGA 叢集,裡面插滿了 FPGA
  • 每台機器一塊 FPGA,采用專用網絡連接配接
  • 每台機器一塊 FPGA,放在網卡和交換機之間,共享伺服器網絡
FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

微軟 FPGA 部署方式的三個階段,來源:[3]

第一個階段是專用叢集,裡面插滿了 FPGA 加速卡,就像是一個 FPGA 組成的超級計算機。

下圖是最早的 BFB 實驗闆,一塊 PCIe 卡上放了 6 塊 FPGA,每台 1U 伺服器上又插了 4 塊 PCIe 卡。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

最早的 BFB 實驗闆,上面放了 6 塊 FPGA。來源:[1]

可以注意到該公司的名字。在半導體行業,隻要批量足夠大,晶片的價格都将趨向于沙子的價格。據傳聞,正是由于該公司不肯給「沙子的價格」 ,才選擇了另一家公司。

當然現在資料中心領域用兩家公司 FPGA 的都有。隻要規模足夠大,對 FPGA 價格過高的擔心将是不必要的。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

最早的 BFB 實驗闆,1U 伺服器上插了 4 塊 FPGA 卡。來源:[1]

像超級計算機一樣的部署方式,意味着有專門的一個機櫃全是上圖這種裝了 24 塊 FPGA 的伺服器(下圖左)。

這種方式有幾個問題:

  • 不同機器的 FPGA 之間無法通信,FPGA 所能處理問題的規模受限于單台伺服器上 FPGA 的數量;
  • 資料中心裡的其他機器要把任務集中發到這個機櫃,構成了 in-cast,網絡延遲很難做到穩定。
  • FPGA 專用機櫃構成了單點故障,隻要它一壞,誰都别想加速了;
  • 裝 FPGA 的伺服器是定制的,冷卻、運維都增加了麻煩。
FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

部署 FPGA 的三種方式,從中心化到分布式。來源:[1]

一種不那麼激進的方式是,在每個機櫃一面部署一台裝滿 FPGA 的伺服器(上圖中)。這避免了上述問題 (2)(3),但 (1)(4) 仍然沒有解決。

第二個階段,為了保證資料中心中伺服器的同構性(這也是不用 ASIC 的一個重要原因),在每台伺服器上插一塊 FPGA(上圖右),FPGA 之間通過專用網絡連接配接。這也是微軟在 ISCA'14 上所發表論文采用的部署方式。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

Open Compute Server 在機架中。來源:[1]

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

Open Compute Server 内景。紅框是放 FPGA 的位置。來源:[1]

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

插入 FPGA 後的 Open Compute Server。來源:[1]

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

FPGA 與 Open Compute Server 之間的連接配接與固定。來源:[1]

FPGA 采用 Stratix V D5,有 172K 個 ALM,2014 個 M20K 片上記憶體,1590 個 DSP。闆上有一個 8GB DDR3-1333 記憶體,一個 PCIe Gen3 x8 接口,兩個 10 Gbps 網絡接口。一個機櫃之間的 FPGA 采用專用網絡連接配接,一組 10G 網口 8 個一組連成環,另一組 10G 網口 6 個一組連成環,不使用交換機。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

機櫃中 FPGA 之間的網絡連接配接方式。來源:[1]

這樣一個 1632 台伺服器、1632 塊 FPGA 的叢集,把 Bing 的搜尋結果排序整體性能提高到了 2 倍(換言之,節省了一半的伺服器)。

如下圖所示,每 8 塊 FPGA 穿成一條鍊,中間用前面提到的 10 Gbps 專用網線來通信。這 8 塊 FPGA 各司其職,有的負責從文檔中提取特征(黃色),有的負責計算特征表達式(綠色),有的負責計算文檔的得分(紅色)。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

FPGA 加速 Bing 的搜尋排序過程。來源:[1]

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

FPGA 不僅降低了 Bing 搜尋的延遲,還顯著提高了延遲的穩定性。來源:[4]

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

本地和遠端的 FPGA 均可以降低搜尋延遲,遠端 FPGA 的通信延遲相比搜尋延遲可忽略。來源:[4]

FPGA 在 Bing 的部署取得了成功,Catapult 項目繼續在公司内擴張。

微軟内部擁有最多伺服器的,就是雲計算 Azure 部門了。

zure 部門急需解決的問題是網絡和存儲虛拟化帶來的開銷。Azure 把虛拟機賣給客戶,需要給虛拟機的網絡提供防火牆、負載均衡、隧道、NAT 等網絡功能。由于雲存儲的實體存儲跟計算節點是分離的,需要把資料從存儲節點通過網絡搬運過來,還要進行壓縮和加密。

在 1 Gbps 網絡和機械硬碟的時代,網絡和存儲虛拟化的 CPU 開銷不值一提。随着網絡和存儲速度越來越快,網絡上了 40 Gbps,一塊 SSD 的吞吐量也能到 1 GB/s,CPU 漸漸變得力不從心了。

例如 Hyper-V 虛拟交換機隻能處理 25 Gbps 左右的流量,不能達到 40 Gbps 線速,當資料包較小時性能更差;AES-256 加密和 SHA-1 簽名,每個 CPU 核隻能處理 100 MB/s,隻是一塊 SSD 吞吐量的十分之一。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

網絡隧道協定、防火牆處理 40 Gbps 需要的 CPU 核數。來源:[5]

為了加速網絡功能和存儲虛拟化,微軟把 FPGA 部署在網卡和交換機之間。

如下圖所示,每個 FPGA 有一個 4 GB DDR3-1333 DRAM,通過兩個 PCIe Gen3 x8 接口連接配接到一個 CPU socket(實體上是 PCIe Gen3 x16 接口,因為 FPGA 沒有 x16 的硬核,邏輯上當成兩個 x8 的用)。實體網卡(NIC)就是普通的 40 Gbps 網卡,僅用于主控端與網絡之間的通信。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

Azure 伺服器部署 FPGA 的架構。來源:[6]

FPGA(SmartNIC)對每個虛拟機虛拟出一塊網卡,虛拟機通過 SR-IOV 直接通路這塊虛拟網卡。原本在虛拟交換機裡面的資料平面功能被移到了 FPGA 裡面,虛拟機收發網絡資料包均不需要 CPU 參與,也不需要經過實體網卡(NIC)。這樣不僅節約了可用于出售的 CPU 資源,還提高了虛拟機的網絡性能(25 Gbps),把同資料中心虛拟機之間的網絡延遲降低了 10 倍。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

網絡虛拟化的加速架構。來源:[6]

這就是微軟部署 FPGA 的第三代架構,也是目前「每台伺服器一塊 FPGA」大規模部署所采用的架構。

FPGA 複用主機網絡的初心是加速網絡和存儲,更深遠的影響則是把 FPGA 之間的網絡連接配接擴充到了整個資料中心的規模,做成真正 cloud-scale 的「超級計算機」。

第二代架構裡面,FPGA 之間的網絡連接配接局限于同一個機架以内,FPGA 之間專網互聯的方式很難擴大規模,通過 CPU 來轉發則開銷太高。

第三代架構中,FPGA 之間通過 LTL (Lightweight Transport Layer) 通信。同一機架内延遲在 3 微秒以内;8 微秒以内可達 1000 塊 FPGA;20 微秒可達同一資料中心的所有 FPGA。第二代架構盡管 8 台機器以内的延遲更低,但隻能通過網絡通路 48 塊 FPGA。為了支援大範圍的 FPGA 間通信,第三代架構中的 LTL 還支援 PFC 流控協定和 DCQCN 擁塞控制協定。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

縱軸:LTL 的延遲,橫軸:可達的 FPGA 數量。來源:[4]

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

FPGA 内的邏輯子產品關系,其中每個 Role 是使用者邏輯(如 DNN 加速、網絡功能加速、加密),外面的部分負責各個 Role 之間的通信及 Role 與外設之間的通信。來源:[4]

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

FPGA 構成的資料中心加速平面,介于網絡交換層(TOR、L1、L2)和傳統伺服器軟體(CPU 上運作的軟體)之間。來源:[4]

通過高帶寬、低延遲的網絡互聯的 FPGA 構成了介于網絡交換層和傳統伺服器軟體之間的資料中心加速平面。

除了每台提供雲服務的伺服器都需要的網絡和存儲虛拟化加速,FPGA 上的剩餘資源還可以用來加速 Bing 搜尋、深度神經網絡(DNN)等計算任務。

對很多類型的應用,随着分布式 FPGA 加速器的規模擴大,其性能提升是超線性的。

例如 CNN inference,當隻用一塊 FPGA 的時候,由于片上記憶體不足以放下整個模型,需要不斷通路 DRAM 中的模型權重,性能瓶頸在 DRAM;如果 FPGA 的數量足夠多,每塊 FPGA 負責模型中的一層或者一層中的若幹個特征,使得模型權重完全載入片上記憶體,就消除了 DRAM 的性能瓶頸,完全發揮出 FPGA 計算單元的性能。

當然,拆得過細也會導緻通信開銷的增加。把任務拆分到分布式 FPGA 叢集的關鍵在于平衡計算和通信。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

從神經網絡模型到 HaaS 上的 FPGA。利用模型内的并行性,模型的不同層、不同特征映射到不同 FPGA。來源:[4]

在 MICRO'16 會議上,微軟提出了 Hardware as a Service (HaaS) 的概念,即把硬體作為一種可排程的雲服務,使得 FPGA 服務的集中排程、管理和大規模部署成為可能。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

Hardware as a Service (HaaS)。來源:[4]

從第一代裝滿 FPGA 的專用伺服器叢集,到第二代通過專網連接配接的 FPGA 加速卡叢集,到目前複用資料中心網絡的大規模 FPGA 雲,三個思想指導我們的路線:

  • 硬體和軟體不是互相取代的關系,而是合作的關系;
  • 必須具備靈活性,即用軟體定義的能力;
  • 必須具備可擴放性(scalability)。

三、FPGA 在雲計算中的角色

最後談一點我個人對 FPGA 在雲計算中角色的思考。作為三年級博士生,我在微軟亞洲研究院的研究試圖回答兩個問題:

  • FPGA 在雲規模的網絡互連系統中應當充當怎樣的角色?
  • 如何高效、可擴放地對 FPGA + CPU 的異構系統進行程式設計?

我對 FPGA 業界主要的遺憾是,FPGA 在資料中心的主流用法,從除微軟外的網際網路巨頭,到兩大 FPGA 廠商,再到學術界,大多是把 FPGA 當作跟 GPU 一樣的計算密集型任務的加速卡。然而 FPGA 真的很适合做 GPU 的事情嗎?

前面講過,FPGA 和 GPU 最大的差別在于體系結構,FPGA 更适合做需要低延遲的流式處理,GPU 更适合做大批量同構資料的處理。

由于很多人打算把 FPGA 當作計算加速卡來用,兩大 FPGA 廠商推出的高層次程式設計模型也是基于 OpenCL,模仿 GPU 基于共享記憶體的批處理模式。CPU 要交給 FPGA 做一件事,需要先放進 FPGA 闆上的 DRAM,然後告訴 FPGA 開始執行,FPGA 把執行結果放回 DRAM,再通知 CPU 去取回。

CPU 和 FPGA 之間本來可以通過 PCIe 高效通信,為什麼要到闆上的 DRAM 繞一圈?也許是工程實作的問題,我們發現通過 OpenCL 寫 DRAM、啟動 kernel、讀 DRAM 一個來回,需要 1.8 毫秒。而通過 PCIe DMA 來通信,卻隻要 1~2 微秒。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

PCIe I/O channel 與 OpenCL 的性能比較。縱坐标為對數坐标。來源:[5]

OpenCL 裡面多個 kernel 之間的通信就更誇張了,預設的方式也是通過共享記憶體。

本文開篇就講,FPGA 比 CPU 和 GPU 能效高,體系結構上的根本優勢是無指令、無需共享記憶體。使用共享記憶體在多個 kernel 之間通信,在順序通信(FIFO)的情況下是毫無必要的。況且 FPGA 上的 DRAM 一般比 GPU 上的 DRAM 慢很多。

是以我們提出了 ClickNP 網絡程式設計架構 [5],使用管道(channel)而非共享記憶體來在執行單元(element/kernel)間、執行單元和主機軟體間進行通信。

需要共享記憶體的應用,也可以在管道的基礎上實作,畢竟 CSP(Communicating Sequential Process)和共享記憶體理論上是等價的嘛。ClickNP 目前還是在 OpenCL 基礎上的一個架構,受到 C 語言描述硬體的局限性(當然 HLS 比 Verilog 的開發效率确實高多了)。理想的硬體描述語言,大概不會是 C 語言吧。

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

ClickNP 使用 channel 在 elements 間通信,來源:[5]

FPGA與CPU、GPU、ASIC的差別,FPGA在雲計算中的應用方案

ClickNP 使用 channel 在 FPGA 和 CPU 間通信,來源:[5]

低延遲的流式處理,需要最多的地方就是通信。

然而 CPU 由于并行性的限制和作業系統的排程,做通信效率不高,延遲也不穩定。

此外,通信就必然涉及到排程和仲裁,CPU 由于單核性能的局限和核間通信的低效,排程、仲裁性能受限,硬體則很适合做這種重複工作。是以我的博士研究把 FPGA 定義為通信的「大管家」,不管是伺服器跟伺服器之間的通信,虛拟機跟虛拟機之間的通信,程序跟程序之間的通信,CPU 跟儲存設備之間的通信,都可以用 FPGA 來加速。

成也蕭何,敗也蕭何。缺少指令同時是 FPGA 的優勢和軟肋。

每做一點不同的事情,就要占用一定的 FPGA 邏輯資源。如果要做的事情複雜、重複性不強,就會占用大量的邏輯資源,其中的大部分處于閑置狀态。這時就不如用馮·諾依曼結構的處理器。

資料中心裡的很多任務有很強的局部性和重複性:一部分是虛拟化平台需要做的網絡和存儲,這些都屬于通信;另一部分是客戶計算任務裡的,比如機器學習、加密解密。

首先把 FPGA 用于它最擅長的通信,日後也許也會像 AWS 那樣把 FPGA 作為計算加速卡租給客戶。

不管通信還是機器學習、加密解密,算法都是很複雜的,如果試圖用 FPGA 完全取代 CPU,勢必會帶來 FPGA 邏輯資源極大的浪費,也會提高 FPGA 程式的開發成本。更實用的做法是FPGA 和 CPU 協同工作,局部性和重複性強的歸 FPGA,複雜的歸 CPU。

當我們用 FPGA 加速了 Bing 搜尋、深度學習等越來越多的服務;當網絡虛拟化、存儲虛拟化等基礎元件的資料平面被 FPGA 把持;當 FPGA 組成的「資料中心加速平面」成為網絡和伺服器之間的天塹……似乎有種感覺,FPGA 将掌控全局,CPU 上的計算任務反而變得碎片化,受 FPGA 的驅使。以往我們是 CPU 為主,把重複的計算任務解除安裝(offload)到 FPGA 上;以後會不會變成 FPGA 為主,把複雜的計算任務解除安裝到 CPU 上呢?随着 Xeon + FPGA 的問世,古老的 SoC 會不會在資料中心煥發新生?