天天看點

華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA

明敏 發自 凹非寺

量子位 | 公衆号 QbitAI

華為盤古系列,帶來架構層面上新!

量子位獲悉,華為諾亞方舟實驗室等聯合推出新型大語言模型架構:盤古-π。

華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA

它通過增強非線性,在傳統Transformer架構上做出改進,由此可以顯著降低特征塌陷問題。

帶來的直接效果就是模型輸出表達能力更強。

在使用相同資料訓練的情況下,盤古-π(7B)在多任務上超越LLaMA 2等同規模大模型,并能實作10%的推理加速。

在1B規模上可達SOTA。

同時還基于這一架構煉出了一個金融法律大模型“雲山”。

該工作由AI大牛陶大程領銜。

具體如何實作?一起來看。

利用非線性解決特征塌陷

目前常見大模型基本都采用Transformer架構,比如GPT、LLaMA等。

它的核心構成包括多頭自注意力機制(MSA)和前饋網絡(FFN)。

華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA

MSA的主要功能是計算輸入序列中每個token和其他所有token之間的相關性,通過學習輸入序列中的依賴關系,可以增強對語言的了解能力。FFN主要對輸入進行非線性轉換,增強模型表達能力,使其可以逼近更複雜的函數。

不過,華為諾亞方舟實驗室發現,特征崩潰(feature collapse)會影響Transformer架構的表現,降低其表達能力,使模型難以區分不同輸入。

以LLaMA為例,在更深層的神經網絡上,特征等級顯著降低,導緻了所有token之間的相似性更強。

從機制上來看,自注意力子產品可以看做在完全圖上進行資訊聚合,連續堆疊多層注意力就像連續多層圖卷積一樣,會産生過度特征平滑效應。

另一方面,多層感覺器(MLP)中的激活函數提供的非線性還不夠,抑制特征崩潰的作用有限。

由此,團隊想要提高模型的非線性表達能力,避免特征崩潰,進而提出了本次工作盤古-π。

如下是盤古-π的結構示意:

華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA

在FFN中加入串聯激活函數,在MSA中內建一種增強快捷連接配接(Aug-S),可以更有效地在Transformer架構中引入更多非線性。

華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA

使用了增強快捷連接配接(Aug-S)的MSA,能将每個token的特征轉換為不同表示形式。

基于這一新架構,通過大規模訓練和微調,研究團隊開發了一個盤古-π基礎模型。

實驗結果顯示,該模型在多任務中表現超越其他同規模模型(分别測試了7B和1B規模)。

而且盤古-π-7B可以達到約10%的推理加速。

華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA
華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA

同時團隊還以此為基礎開發了一個金融法律領域大模型“雲山”,它同樣在多個benchmark中成績超越其他模型。

華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA
華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA

通訊作者為陶大程

值得關注的是,本項研究的團隊陣容也非常亮眼。

通訊作者為陶大程。

他是歐洲科學院外籍院士、澳洲科學院院士。大學就讀于中科大,說是畢業于港中文MMLab、師從湯曉鷗。

2007年從英國博士畢業後,先後在中國香港理工大學、新加坡南洋理工大學,澳洲悉尼科技大學、悉尼大學任教。目前是清華大學智能産業研究院AIR團隊卓越通路教授。

與此同時,他還先後加盟過優必選、京東,曾是京東最進階别AI科學家、擔任京東探索研究院院長。

華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA

一作為王雲鶴。

他是2012實驗室諾亞方舟實驗室進階研究員,現任華為算法應用部部長。

王雲鶴在華為負責高效AI算法的創新研發以及在華為業務中的應用。他和團隊開發了高效AI算法,其衍生應用在中國天眼FAST觀測工作中,協助中科院國家天文台專家找到了數百個新的快速射電暴樣本。

華為改進Transformer!盤古-π解決特征崩潰,同規模性能超LLaMA

論文位址:

http://arxiv.org/abs/2312.17276

— 完 —

量子位 QbitAI · 頭條号簽約

關注我們,第一時間獲知前沿科技動态