Apple Intelligence 驅動的 Siri 延遲發佈,主要原因是 Apple 在開發自家 AI 模型方面遇到困難。這可能也反映了 Apple 對於投入大量資金的猶豫,以及其對隱私的堅持使得模型訓練更加困難,因為 Apple 擁有的數據量有限。然而,這次延遲也帶來了一些好處。
重點文章
擴大裝置支援
Apple 和 Google 宣佈 Gemini 模型將在 Apple 的私人雲端運算伺服器上運行,以支援未來的 Apple Intelligence 功能,包括在 WWDC 上發佈的全新 Siri。雖然這解決了需要大量運算資源的功能,但本地模型仍然是重要的一環。在 WWDC 上發佈時,Apple Intelligence 要求搭載 A17 Pro 或更高版本晶片的裝置,這表示它僅適用於當時最新(且最高階)的 iPhone 型號:iPhone 15 Pro 和 iPhone 15 Pro Max。
更多用戶能體驗新 Siri 功能
這意味著有更多人擁有了支援 Apple Intelligence 的裝置。在過去兩年內購買了任何 iPhone 16 或 iPhone 17 型號的用戶(加上已經擁有 iPhone 15 Pro 的用戶),都將能夠使用 Apple Intelligence。目前已有 11 款支援 Apple Intelligence 的 iPhone 型號在市場上銷售了一段時間。功能最初推出時只有 2 款,若加上新推出的 iPhone 16 型號則有 6 款。這是一個相當重要的進展。當 Apple Intelligence 剛發佈時,它幾乎是 iPhone 16 系列的賣點。現在,它將成為佔 iPhone 用戶群相當大比例的裝置的免費軟件更新。
未來展望
由於新版 Apple Intelligence 功能尚未正式發佈,目前很難深入探討其技術細節。儘管 Google Gemini 將在私人雲端運算上處理大多數 Siri 請求,本地模型可能仍將承擔重要的運算任務。不過,無論特定功能是否使用本地模型,Apple 最終可能會採取所有 Apple Intelligence 功能都需要支援本地模型的裝置的策略。
隨著新版 Siri 於明年春季在 iOS 26.4 中開始推出,以及更多 Apple Intelligence 功能隨 iOS 27 發佈,屆時將有更多 iPhone 用戶能體驗這些功能,這將是一個更積極正面的消息。當然,前提是所有功能都能順利運作。
