天天看點

【Netty技術專題】「原理分析系列」Netty強大特性之ByteBuf零拷貝技術原理分析

我們先來看下它的定義:

"Zero-copy" describes computer operations in which the CPU does not perform the task of copying data from one memory area to another. This is frequently used to save CPU cycles and memory bandwidth when transmitting a file over a network.
所謂的Zero-copy,就是在操作資料時, 不需要将資料buffer從一個記憶體區域拷貝到另一個記憶體區域,少了一次記憶體的拷貝, 減少了cpu的執行,節省了記憶體帶寬。

在OS層面上的Zero-copy通常指避免在使用者态(User-space) 與 核心态(Kernel-space) 之間來回拷貝資料。

例如 Linux 提供的 mmap 系統調用, 它可以将一段使用者空間記憶體映射到核心空間, 當映射成功後, 使用者對這段記憶體區域的修改可以直接反映到核心空間;

核心空間對這段區域的修改也直接反映使用者空間。正因為有這樣的映射關系, 我們就不需要在 使用者态(User-space) 與 核心态(Kernel-space) 之間拷貝資料, 提高了資料傳輸的效率。

Netty中的 Zero-copy 與上面我們所提到到 OS 層面上的 Zero-copy 不太一樣, Netty的 Zero-copy 完全是在使用者态(Java 層面)的,它的 Zero-copy 的更多的是偏向于 優化資料操作 這樣的概念.

Netty 提供了CompositeByteBuf 類, 它可以将多個 ByteBuf 合并為一個邏輯上的 ByteBuf, 避免了各個 ByteBuf 之間的拷貝。

通過 wrap 操作, 我們可以将 byte[] 數組、ByteBuf、ByteBuffer等包裝成一個 Netty ByteBuf 對象, 進而避免了拷貝操作。

ByteBuf支援slice操作, 是以可以将 ByteBuf 分解為多個共享同一個存儲區域的 ByteBuf, 避免了記憶體的拷貝。

通過 FileRegion 包裝的FileChannel.tranferTo 實作檔案傳輸, 可以直接将檔案緩沖區的資料發送到目标 Channel, 避免了傳統通過循環 write 方式導緻的記憶體拷貝問題。

假設我們有一份協定資料, 它由頭部和消息體組成, 而頭部和消息體是分别存放在兩個 ByteBuf 中的, 即:

在代碼進行中, 通常希望将 header 和 body 合并為一個 ByteBuf, 友善處理, 那麼通常的做法是:

可以看到, 我們将 header 和 body 都拷貝到了新的 allBuf 中了, 這無形中增加了兩次額外的資料拷貝操作了。那麼有沒有更加高效優雅的方式實作相同的目的呢? 我們來看一下 CompositeByteBuf 是如何實作這樣的需求的吧.

上面代碼中, 我們定義了一個 CompositeByteBuf 對象, 然後調用

方法将 header 與 body 合并為一個邏輯上的 ByteBuf, 即:

【Netty技術專題】「原理分析系列」Netty強大特性之ByteBuf零拷貝技術原理分析

不過需要注意的是, 雖然看起來CompositeByteBuf是由兩個 ByteBuf 組合而成的, 不過在 CompositeByteBuf 内部, 這兩個 ByteBuf 都是單獨存在的, CompositeByteBuf 隻是邏輯上是一個整體.

上面CompositeByteBuf 代碼還以一個地方值得注意的是, 我們調用addComponents(boolean increaseWriterIndex, ByteBuf... buffers) 來添加兩個 ByteBuf, 其中第一個參數是 true, 表示當添加新的 ByteBuf 時, 自動遞增 CompositeByteBuf 的 writeIndex。

除了上面直接使用 CompositeByteBuf 類外, 我們還可以使用 Unpooled.wrappedBuffer 方法, 它底層封裝了 CompositeByteBuf 操作, 是以使用起來更加友善:

我們有一個 byte 數組, 我們希望将它轉換為一個 ByteBuf 對象, 以便于後續的操作, 那麼傳統的做法是将此 byte 數組拷貝到 ByteBuf 中, 即:

顯然這樣的方式也是有一個額外的拷貝操作的,我們可以使用 Unpooled 的相關方法, 包裝這個 byte 數組, 生成一個新的 ByteBuf 執行個體, 而不需要進行拷貝操作。上面的代碼可以改為:

通過 Unpooled.wrappedBuffer方法來将 bytes 包裝成為一個 UnpooledHeapByteBuf 對象, 而在包裝的過程中, 是不會有拷貝操作的. 即最後我們生成的生成的 ByteBuf 對象是和 bytes 數組共用了同一個存儲空間, 對 bytes 的修改也會反映到 ByteBuf 對象中.

slice 操作和 wrap 操作剛好相反, Unpooled.wrappedBuffer 可以将多個 ByteBuf 合并為一個, 而 slice 操作可以将一個 ByteBuf 切片 為多個共享一個存儲區域的 ByteBuf 對象.

ByteBuf 提供了兩個 slice 操作方法:

不帶參數的 slice 方法等同于 buf.slice(buf.readerIndex(), buf.readableBytes()) 調用, 即傳回 buf 中可讀部分的切片. 而 slice(int index, int length) 方法相對就比較靈活了, 我們可以設定不同的參數來擷取到 buf 的不同區域的切片.

用 slice 方法産生 header 和 body 的過程是沒有拷貝操作的, header 和 body 對象在内部其實是共享了 byteBuf 存儲空間的不同部分而已. 即:

【Netty技術專題】「原理分析系列」Netty強大特性之ByteBuf零拷貝技術原理分析

Netty中使用FileRegion實作檔案傳輸的零拷貝, 不過在底層 FileRegion 是依賴于 Java NIO FileChannel.transfer 的零拷貝功能.

首先我們從最基礎的 Java IO 開始吧. 假設我們希望實作一個檔案拷貝的功能, 那麼使用傳統的方式, 我們有如下實作:

上面是一個典型的讀寫二進制檔案的代碼實作了. 不用我說, 大家肯定都知道, 上面的代碼中不斷中源檔案中讀取定長資料到 temp 數組中, 然後再将 temp 中的内容寫入目的檔案, 這樣的拷貝操作對于小檔案倒是沒有太大的影響, 但是如果我們需要拷貝大檔案時, 頻繁的記憶體拷貝操作就消耗大量的系統資源了,下面我們來看一下使用 Java NIO 的 FileChannel 是如何實作零拷貝的:

可以看到, 使用了 FileChannel 後, 我們就可以直接将源檔案的内容直接拷貝(transferTo) 到目的檔案中, 而不需要額外借助一個臨時 buffer, 避免了不必要的記憶體操作,我們來看一下在 Netty 中是怎麼使用 FileRegion 來實作零拷貝傳輸一個檔案的:

可以看到, 第一步是通過 RandomAccessFile 打開檔案, 然後Netty使用DefaultFileRegion 來封裝一個 FileChannel 即:

零拷貝的“零”是指使用者态和核心态間copy資料的次數為零。

傳統的資料copy(檔案到檔案、client到server等)涉及到四次使用者态核心态切換、四次copy,四次copy中,兩次在使用者态和核心态間copy需要CPU參與、兩次在核心态與IO裝置間copy為DMA方式不需要CPU參與,零拷貝避免了使用者态和核心态間的copy、減少了兩次使用者态核心态間的切換。

java的zero copy多在網絡應用程式中使用。Java的libaries在linux和unix中支援zero copy,關鍵的api是java.nio.channel.FileChannel的transferTo(),transferFrom()方法。

可以用這兩個方法來把bytes直接從調用它的channel傳輸到另一個writable byte channel,中間不會使data經過應用程式,以便提高資料轉移的效率。

許多web應用都會向使用者提供大量的靜态内容,這意味着有很多data從硬碟讀出之後,會原封不動的通過socket傳輸給使用者。這種操作看起來可能不會怎麼消耗CPU,但是實際上它是低效。

原始拷貝技術

kernal把資料從disk讀出來,然後把它傳輸給user級的application,然後application再次把同樣的内容再傳回給處于kernal級的socket,application實際上隻是作為一種低效的中間媒體,用來把disk file的data傳給socket。

零拷貝技術

data每次通過user-kernel boundary,都會被copy,這會消耗CPU,并且占用RAM的帶寬。是以你可以用一種叫做Zero-Copy的技術來去掉這些無謂的 copy。

應用程式用zero copy來請求kernel直接把disk的data傳輸給socket,而不是通過應用程式傳輸。Zero copy提高了應用程式的性能,并且減少了kernel和user模式的上下文切換。

使用kernel buffer做中介(而不是直接把data傳到user buffer中)看起來比較低效(多了一次copy)。然而實際上kernel buffer是用來提高性能的。

零拷貝的弊端問題

在進行讀操作的時候,kernel buffer起到了預讀cache的作用,當寫請求的data size比kernel buffer的size小的時候,這能夠顯著的提升性能。在進行寫操作時,kernel buffer的存在可以使得寫請求完全異步。

悲劇的是,當請求的data size遠大于kernel buffer size的時候,這個方法本身變成了性能的瓶頸。因為data需要在disk,kernel buffer,user buffer之間拷貝很多次(每次寫滿整個buffer)。

而Zero copy正是通過消除這些多餘的data copy來提升性能。

通過網絡把一個檔案傳輸給另一個程式,在OS的内部,這個copy操作要經曆四次user mode和kernel mode之間的上下文切換,甚至連資料都被拷貝了四次,

具體步驟如下:

read() 調用導緻一次從user mode到kernel mode的上下文切換。在内部調用了sys_read() 來從檔案中讀取data。第一次copy由DMA (direct memory access)完成,将檔案内容從disk讀出,存儲在kernel的buffer中。

然後請求的資料被copy到user buffer中,此時read()成功傳回。調用的傳回觸發了第二次context switch: 從kernel到user。至此,資料存儲在user的buffer中。

send() Socket call 帶來了第三次context switch,這次是從user mode到kernel mode。同時,也發生了第三次copy:把data放到了kernel adress space中。當然,這次的kernel buffer和第一步的buffer是不同的buffer。

最終 send() system call 傳回了,同時也造成了第四次context switch。同時第四次copy發生,DMA egine将data從kernel buffer拷貝到protocol engine中。第四次copy是獨立而且異步的。

【Netty技術專題】「原理分析系列」Netty強大特性之ByteBuf零拷貝技術原理分析
【Netty技術專題】「原理分析系列」Netty強大特性之ByteBuf零拷貝技術原理分析

在linux 2.4及以上版本的核心中(如linux 6或centos 6以上的版本),開發者修改了socket buffer descriptor,使網卡支援 gather operation,通過kernel進一步減少資料的拷貝操作。這個方法不僅減少了context switch,還消除了和CPU有關的資料拷貝。user層面的使用方法沒有變,但是内部原理卻發生了變化:

transferTo()方法使得檔案内容被copy到了kernel buffer,這一動作由DMA engine完成。 沒有data被copy到socket buffer。取而代之的是socket buffer被追加了一些descriptor的資訊,包括data的位置和長度。然後DMA engine直接把data從kernel buffer傳輸到protocol engine,這樣就消除了唯一的一次需要占用CPU的拷貝操作。

【Netty技術專題】「原理分析系列」Netty強大特性之ByteBuf零拷貝技術原理分析
【Netty技術專題】「原理分析系列」Netty強大特性之ByteBuf零拷貝技術原理分析

NIO中的FileChannel擁有transferTo和transferFrom兩個方法,可直接把FileChannel中的資料拷貝到另外一個Channel,或直接把另外一個Channel中的資料拷貝到FileChannel。該接口常被用于高效的網絡/檔案的資料傳輸和大檔案拷貝。

在作業系統支援的情況下,通過該方法傳輸資料并不需要将源資料從核心态拷貝到使用者态,再從使用者态拷貝到目标通道的核心态,同時也避免了兩次使用者态和核心态間的上下文切換,也即使用了“零拷貝”,是以其性能一般高于Java IO中提供的方法。

極限就是為了超越而存在的