天天看點

微軟太狠了!記憶體低不讓用Windows 11 AI,16GB起步?

微軟太狠了!記憶體低不讓用Windows 11 AI,16GB起步?

毫無疑問,AI 技術已經成為了智能手機、電腦等個人運算裝置的下一個轉折點。在上遊晶片領域,高通、英特爾等品牌已經完成了 NPU、AI 晶片等産品的産品布局,正旗幟鮮明地朝着 AI 技術落地進發。在産品側,自 2023 年骁龍峰會結束後,除 Apple 外各大品牌都争先推出采用 AI 大語言模型技術的具體産品。在前段時間才結束的 CES 2024 上,三星、華碩、聯想、戴爾等知名電腦品牌都釋出了自己的「AI 電腦」産品,在三星「開箱日」(Unpacked)活動中,三星更是釋出了其首批「AI 手機」——Galaxy S24 系列。

就連為了照顧老舊硬體相容性而常常慢半拍的微軟,也決定在未來的 Windows 11/12 中加入更多的 AI 功能。在 2023 年 Ignite 2023 開發者大會上,微軟 CEO 納德拉甚至表示微軟成為了一家「Copilot 公司」。

微軟太狠了!記憶體低不讓用Windows 11 AI,16GB起步?

圖檔來源:微軟

但從硬體配置上,有些電腦似乎還沒有準備好迎接 AI 時代。

市場調查機構 TrendForece 的一則資訊中提到:

微軟已将 AI PC 中的記憶體基線設定為 16 GB。從長遠來看,TrendForce 預計人工智能PC将促進對 PC 記憶體的年度需求增加,消費者更新趨勢進一步推動了這一需求。

換句話說,如果你電腦記憶體小于 16GB,微軟的 Copilot AI 很可能與你無緣。

16GB 門檻并不高?

對于你我這種數位愛好者,16GB 的記憶體基線似乎不高,畢竟在 2023 年 12 月的 Steam 硬體調查中,記憶體小于 16GB 的玩家占比隻有不到 22%。但就像剛剛說的那樣,這個數字隻能代表 Steam 玩家。考慮到實際狀況,這個 22% 并不具有普适性。再說了,微軟的 Copilot AI 面向的更多的是工作場景,直接用 PC 玩家的高配遊戲電腦來參考并不科學。

微軟太狠了!記憶體低不讓用Windows 11 AI,16GB起步?

圖檔來源:Steam

考慮到大多數公司的商用電腦更換周期為 3 年,我們不妨以 3 前,既 2020 年的配置來做參考。根據 Digital Trened 的資料,2020 年普通消費者的筆記本電腦通常隻配備 8GB 記憶體。 比如在 2020 年某市某資料中心的競價公告中,所采購的電腦記憶體就隻有 8GB,未達到「基準線」。

微軟太狠了!記憶體低不讓用Windows 11 AI,16GB起步?

圖檔來源:重慶市政府采購網

當然了,考慮到 Windows 11 的實際表現,微軟和 Copilot 其實沒有挑三揀四的底氣:根據 Statcounter 公布的資料,截至 2023年 11 月,Windows 11 的系統占比僅為26.66%。與此同時 Windows 10 占比高達 68%,其餘的所有系統版本加起來占比都不到 Windows 10 的 50%。

再聯系到前段時間微軟正想盡一切辦法「驅趕」使用者改用 Windows 11,甚至不惜「開閘放水」允許使用者以自己的方式激活 Windows 11,小雷并不認為微軟會在記憶體上為未來的 Windows 11 使用者設計障礙,很有可能會在最後關頭放開記憶體限制,或允許使用者全量更新,但不保證關鍵應用的運作結果。

不過話又說回來,現在的 AI 大語言模型在智能手機上都能正常運作,高通甚至在 2023 骁龍峰會展示了極為高效的手機 AI 大語言模型,難道 8GB 電腦就真的跑不動 AI 嗎?或者說有沒有什麼辦法可以讓 AI 大語言模型應用運作在 8GB 手機上呢?

辦法自然是有的,比如将本地模型和線上模型混合調用的混合式 AI 大語言模型。

「分布式」混合大模型是未來?

從運作位置來說,目前AI 大語言模型應用大緻可以分為三類:本地運作、遠端運作和混合運作。本地運作很好了解,即整個模型就跑在目前正在互動的系統中,可以離線運作的 AI 大語言模型應用和專業玩家在自己電腦上部署的離線模型都屬于這一類。

遠端運作與之相反,指輸入輸出的裝置和運作大語言模型的裝置不在同一系統下的情況。那些通過網頁、微信小程式互動、或整個模型運作在遠端伺服器上的 AI 應用就屬于遠端運作。

微軟太狠了!記憶體低不讓用Windows 11 AI,16GB起步?

圖檔來源:微軟

本地運作和遠端運作各有各的優勢和劣勢,比如本地運作可以斷網運作,将使用者資料保留在裝置本地,降低資料洩露的風險;本地模型在響應速度上也不依賴于網速,可以顯著提升使用者體驗。遠端運作雖然要将資料發往遠端伺服器并等待輸出結果傳回,但因為遠端伺服器一般都是 HPC 叢集,擁有的算力和使用者本地資源根本不是同一個數量級,是以在生成式模型應用中擁有更快的生成速度和更好的運算精度。

而混合運作模式則取兩家之長,根據應用的具體需求,可以靈活地在本地和雲端之間配置設定計算任務。例如,一些對響應速度要求高或需要即時處理的任務可以在本地執行,而那些對計算能力要求更高的分析和學習任務則可以在雲端進行。這種靈活性使得AI系統能夠更好地适應不同的使用場景,提供更加定制化的服務。

首先,混合模型在資料隐私和安全方面具有顯著優勢。随着資料洩露事件的頻繁發生,消費者對于個人資訊安全越來越關注。在混合模型中,敏感資料可以在本地處理,不必傳輸到雲端,這大大降低了資料洩露的風險。對于一般消費者而言,這意味着他們可以更加放心地使用基于AI的應用,如智能家居裝置和個人健康資料分析工具,無須過分擔心個人隐私被侵犯。

其次,混合模型提供了更好的性能和響應速度。對于需要實時反應的應用,如語音助手和線上遊戲,本地計算能夠提供更快的處理速度,避免了因資料傳輸至雲端而産生的延遲。而對于那些需要複雜計算和大量資料分析的任務,比如圖像識别和大型語言模型,可以利用雲端的強大計算能力來處理,進而提供高效率的AI服務。對消費者來說,這種結合了本地快速響應和雲端高效計算的模式能夠在不同場景下提供更加流暢和高效的體驗。

微軟太狠了!記憶體低不讓用Windows 11 AI,16GB起步?

圖檔來源:微軟

靈活性是混合模型的另一個重要優勢。它允許消費者根據自己的需求和偏好來選擇資料處理的方式。例如在家裡,消費者可能更傾向于使用本地計算來處理個人資料,以確定隐私;而在外出時則可能更依賴雲端服務來擷取資訊和娛樂内容。這種靈活性使得混合模型能夠适應不同消費者的多樣化需求。

此外,混合模型對于裝置相容性和更新維護也更加友好。由于雲端計算可以提供最新的AI模型和算法,消費者不必頻繁更換本地裝置就能享受到最新的AI技術。同時,對于一些本地計算任務,舊裝置依然可以有效運作,這減少了裝置更新的壓力,延長了裝置的使用壽命,對于注重成本效益的消費者而言,這是一個重要的優勢。

甚至微軟自己也曾多次表示對混合 AI 大語言模型的重視,在 8GB 記憶體的「死線」下,相信微軟也絕對有能力提供基本的 AI 決策能力,讓 AI 大語言模型成為一項「普惠」功能。

不過考慮到近幾年閃存技術突飛猛進的發展,16GB 的基準線未來也可能成為辦公電腦的标配,畢竟這事關 AI 和「生産力」。相信在 AI PC 的浪潮面前,16GB 記憶體很可能會成為 2024 年筆記本市場的「起步配置」。

微軟太狠了!記憶體低不讓用Windows 11 AI,16GB起步?

圖檔來源:Apple

當然了,售價高達 12999 元卻依舊隻有 8GB 記憶體的 M3 Macbook Pro 不在「AI 普惠工程」之内。