微軟太狠了!內(nèi)存低不讓用Windows 11 AI,16GB起步?(內(nèi)存不足,無法運行microsoft)
毫無疑問,AI 技術(shù)已經(jīng)成為了智能手機、電腦等個人運算設備的下一個轉(zhuǎn)折點。在上游芯片領域,高通、英特爾等品牌已經(jīng)完成了 NPU、AI 芯片等產(chǎn)品的產(chǎn)品布局,正旗幟鮮明地朝著 AI 技術(shù)落地進發(fā)。在產(chǎn)品側(cè),自 2023 年驍龍峰會結(jié)束后,除 Apple 外各大品牌都爭先推出采用 AI 大語言模型技術(shù)的具體產(chǎn)品。在前段時間才結(jié)束的 CES 2024 上,三星、華碩、聯(lián)想、戴爾等知名電腦品牌都發(fā)布了自己的「AI 電腦」產(chǎn)品,在三星「開箱日」(Unpacked)活動中,三星更是發(fā)布了其首批「AI 手機」——Galaxy S24 系列。
就連為了照顧老舊硬件兼容性而常常慢半拍的微軟,也決定在未來的 Windows 11/12 中加入更多的 AI 功能。在 2023 年 Ignite 2023 開發(fā)者大會上,微軟 CEO 納德拉甚至表示微軟成為了一家「Copilot 公司」。
圖片來源:微軟
但從硬件配置上,有些電腦似乎還沒有準備好迎接 AI 時代。
市場調(diào)查機構(gòu) TrendForece 的一則資訊中提到:
微軟已將 AI PC 中的內(nèi)存基線設置為 16 GB。從長遠來看,TrendForce 預計人工智能PC將促進對 PC 內(nèi)存的年度需求增加,消費者升級趨勢進一步推動了這一需求。
換句話說,如果你電腦內(nèi)存小于 16GB,微軟的 Copilot AI 很可能與你無緣。
16GB 門檻并不高?
對于你我這種數(shù)碼愛好者,16GB 的內(nèi)存基線似乎不高,畢竟在 2023 年 12 月的 Steam 硬件調(diào)查中,內(nèi)存小于 16GB 的玩家占比只有不到 22%。但就像剛剛說的那樣,這個數(shù)字只能代表 Steam 玩家??紤]到實際狀況,這個 22% 并不具有普適性。再說了,微軟的 Copilot AI 面向的更多的是工作場景,直接用 PC 玩家的高配游戲電腦來參考并不科學。
圖片來源:Steam
考慮到大多數(shù)公司的商用電腦更換周期為 3 年,我們不妨以 3 前,既 2020 年的配置來做參考。根據(jù) Digital Trened 的數(shù)據(jù),2020 年普通消費者的筆記本電腦通常只配備 8GB 內(nèi)存。 比如在 2020 年某市某數(shù)據(jù)中心的競價公告中,所采購的電腦內(nèi)存就只有 8GB,未達到「基準線」。
圖片來源:重慶市政府采購網(wǎng)
當然了,考慮到 Windows 11 的實際表現(xiàn),微軟和 Copilot 其實沒有挑三揀四的底氣:根據(jù) Statcounter 公布的數(shù)據(jù),截至 2023年 11 月,Windows 11 的系統(tǒng)占比僅為26.66%。與此同時 Windows 10 占比高達 68%,其余的所有系統(tǒng)版本加起來占比都不到 Windows 10 的 50%。
再聯(lián)系到前段時間微軟正想盡一切辦法「驅(qū)趕」用戶改用 Windows 11,甚至不惜「開閘放水」允許用戶以自己的方式激活 Windows 11,小雷并不認為微軟會在內(nèi)存上為未來的 Windows 11 用戶設計障礙,很有可能會在最后關頭放開內(nèi)存限制,或允許用戶全量升級,但不保證關鍵應用的運行結(jié)果。
不過話又說回來,現(xiàn)在的 AI 大語言模型在智能手機上都能正常運行,高通甚至在 2023 驍龍峰會展示了極為高效的手機 AI 大語言模型,難道 8GB 電腦就真的跑不動 AI 嗎?或者說有沒有什么辦法可以讓 AI 大語言模型應用運行在 8GB 手機上呢?
辦法自然是有的,比如將本地模型和線上模型混合調(diào)用的混合式 AI 大語言模型。
「分布式」混合大模型是未來?
從運行位置來說,當前AI 大語言模型應用大致可以分為三類:本地運行、遠端運行和混合運行。本地運行很好理解,即整個模型就跑在當前正在交互的系統(tǒng)中,可以離線運行的 AI 大語言模型應用和專業(yè)玩家在自己電腦上部署的離線模型都屬于這一類。
遠端運行與之相反,指輸入輸出的設備和運行大語言模型的設備不在同一系統(tǒng)下的情況。那些通過網(wǎng)頁、微信小程序交互、或整個模型運行在遠端服務器上的 AI 應用就屬于遠端運行。
圖片來源:微軟
本地運行和遠端運行各有各的優(yōu)勢和劣勢,比如本地運行可以斷網(wǎng)運行,將用戶數(shù)據(jù)保留在設備本地,降低數(shù)據(jù)泄露的風險;本地模型在響應速度上也不依賴于網(wǎng)速,可以顯著提升用戶體驗。遠端運行雖然要將數(shù)據(jù)發(fā)往遠端服務器并等待輸出結(jié)果返回,但因為遠端服務器一般都是 HPC 集群,擁有的算力和用戶本地資源根本不是同一個數(shù)量級,所以在生成式模型應用中擁有更快的生成速度和更好的運算精度。
而混合運行模式則取兩家之長,根據(jù)應用的具體需求,可以靈活地在本地和云端之間分配計算任務。例如,一些對響應速度要求高或需要即時處理的任務可以在本地執(zhí)行,而那些對計算能力要求更高的分析和學習任務則可以在云端進行。這種靈活性使得AI系統(tǒng)能夠更好地適應不同的使用場景,提供更加定制化的服務。
首先,混合模型在數(shù)據(jù)隱私和安全方面具有顯著優(yōu)勢。隨著數(shù)據(jù)泄露事件的頻繁發(fā)生,消費者對于個人信息安全越來越關注。在混合模型中,敏感數(shù)據(jù)可以在本地處理,不必傳輸?shù)皆贫?,這大大降低了數(shù)據(jù)泄露的風險。對于一般消費者而言,這意味著他們可以更加放心地使用基于AI的應用,如智能家居設備和個人健康數(shù)據(jù)分析工具,無須過分擔心個人隱私被侵犯。
其次,混合模型提供了更好的性能和響應速度。對于需要實時反應的應用,如語音助手和在線游戲,本地計算能夠提供更快的處理速度,避免了因數(shù)據(jù)傳輸至云端而產(chǎn)生的延遲。而對于那些需要復雜計算和大量數(shù)據(jù)分析的任務,比如圖像識別和大型語言模型,可以利用云端的強大計算能力來處理,從而提供高效率的AI服務。對消費者來說,這種結(jié)合了本地快速響應和云端高效計算的模式能夠在不同場景下提供更加流暢和高效的體驗。
圖片來源:微軟
靈活性是混合模型的另一個重要優(yōu)勢。它允許消費者根據(jù)自己的需求和偏好來選擇數(shù)據(jù)處理的方式。例如在家里,消費者可能更傾向于使用本地計算來處理個人數(shù)據(jù),以確保隱私;而在外出時則可能更依賴云端服務來獲取信息和娛樂內(nèi)容。這種靈活性使得混合模型能夠適應不同消費者的多樣化需求。
此外,混合模型對于設備兼容性和更新維護也更加友好。由于云端計算可以提供最新的AI模型和算法,消費者不必頻繁更換本地設備就能享受到最新的AI技術(shù)。同時,對于一些本地計算任務,舊設備依然可以有效運行,這減少了設備更新的壓力,延長了設備的使用壽命,對于注重成本效益的消費者而言,這是一個重要的優(yōu)勢。
甚至微軟自己也曾多次表示對混合 AI 大語言模型的重視,在 8GB 內(nèi)存的「死線」下,相信微軟也絕對有能力提供基本的 AI 決策能力,讓 AI 大語言模型成為一項「普惠」功能。
不過考慮到近幾年閃存技術(shù)突飛猛進的發(fā)展,16GB 的基準線未來也可能成為辦公電腦的標配,畢竟這事關 AI 和「生產(chǎn)力」。相信在 AI PC 的浪潮面前,16GB 內(nèi)存很可能會成為 2024 年筆記本市場的「起步配置」。
圖片來源:Apple
當然了,售價高達 12999 元卻依舊只有 8GB 內(nèi)存的 M3 Macbook Pro 不在「AI 普惠工程」之內(nèi)。