為何 M1 能用 Apple Intelligence 而更快的 A16 卻不能?

apple AI chips

根據知名蘋果分析員郭明錤的最新報告指出,搭載 A16 晶片的 iPhone 15 並不支援 Apple Intelligence,但使用 M1 晶片的設備卻可以支援。這一現象表明,能否支援 Apple Intelligence 的關鍵在於 DRAM 大小,而非 AI 算力 (TOPS)。

apple ai 1

M1 與 A16 的比較

M1 晶片的 AI 算力約為 11 TOPS,低於 A16 的 17 TOPS。然而,A16 的 DRAM 為 6GB,低於 M1 的 8GB。因此,目前的 Apple Intelligence 裝置端 AI LLM 對 DRAM 的需求約為 2GB 或更低。

A16

DRAM 需求的驗證

DRAM 需求可以通過另一種方式來驗證。Apple Intelligence 採用裝置端 3B LLM(應為 FP16,M1 的 NPU/ANE 對 FP16 有很好的支持),經過壓縮後(採用 2-bit 與 4-bit 的混合配置),隨時需要預留約 0.7-1.5GB DRAM 來運作 Apple Intelligence 的裝置端 LLM。

進一步的分析與結論

若要透過 AI 強化既有裝置端應用,至少需部署裝置端 3B LLM,並以此為基礎再根據壓縮方式決定 DRAM 規格。微軟認為 AI PC 的關鍵規格是 40 TOPS 算力,但對 Apple 而言,搭配雲端 AI(Private Cloud Compute),裝置端有 11 TOPS 的算力已足夠開始提供裝置端 AI 應用。

Apple 的銷售優勢

消費者若欲購買微軟的 AI PC 可能會感到困惑,因為還需要自行計算是否達到 40 TOPS。而 Apple 則是直接告訴消費者哪些機型可以支援 Apple Intelligence。無論裝置端 AI 應用能否滿足消費者需求,Apple 在銷售上一開始就具有明顯優勢。

Apple Intelligence

未來展望與市場影響

未來 Apple Intelligence 的裝置端 AI 肯定也會升級(最有可能升級到 7B LLM),屆時需要更大 DRAM 才能運作。Apple 是否會以此作為高低階機種的產品區隔策略值得觀察。使用者體驗是否如 Apple 宣稱的那麼美好仍需觀察,因為在宣傳上曾經有過言過其實的錯誤案例。

競爭對手與市場趨勢

Samsung S24 的 AI 功能有限,微軟的 AI PC 目前仍讓消費者感到困惑。但 Apple 成功定義了裝置端 AI,至少消費者已清楚知道 Apple 的 AI 裝置功能豐富且有哪些賣點。這會加速競爭對手的模仿與追趕,並進而帶動裝置端 AI 相關產業的快速成長。

加入本站 WhatsApp 頻道最新限免情報立即知。

全新本站官方《限時情報王》 iOS 版 登場。限免已完結?不想錯過重大限免應用,可到本站追蹤 Telegram 頻道FacebookIG