今年春季,Apple 將在 iOS 26.4 更新中推出全新版本的 Siri,這將徹底改變我們與這位個人助理互動的方式及其功能。iOS 26.4 的 Siri 雖然不會像 ChatGPT 或 Claude 那樣運作,但它將依賴大量語言模型 (LLM),並進行了底層的全面更新。
重點文章
Siri 採用全新 LLM 核心
新一代的 Siri 將採用先進的大量語言模型,與 ChatGPT、Claude 和 Gemini 等所使用的模型類似。目前 Siri 透過多個任務專屬的模型來完成指令,而 iOS 26.4 中的 Siri 將以 LLM 核心為基礎。它將不再僅限於語音轉文字並搜尋關鍵字執行,而是能夠真正理解用戶的具體意圖,並運用推理能力來完成任務。我們已經知道部分 LLM Siri 的功能,因為 Apple 在 iOS 18 發佈時已描述其希望導入的 Apple Intelligence 特點。Apple 說明 Siri 將透過個人化內容、螢幕內容感知以及更深層次的應用程式間協作來提升功能,Siri 將能理解代名詞、參考螢幕及應用程式內的內容,並具備用於後續請求的短期記憶。
Apple 與 Google 合作深化 AI
2025 年 8 月的一次全體員工會議上,Apple 軟體工程主管 Craig Federighi 向員工解釋了 Siri 的問題。Apple 曾嘗試整合兩個獨立系統,但並未成功,唯一的解決方案是升級至以大量語言模型為基礎的第二代架構。Federighi 在該會議中表示,Apple 已成功改造 Siri,並將能推出比 iOS 18 最初承諾更大幅度的升級。Apple 過去的挑戰之一是過於依賴自行開發的 AI 模型,其能力未能與競爭對手匹敵。在 Siri 延遲發佈後,Apple 便開始考慮為 Siri 及未來 AI 功能採用第三方模型。2026 年 1 月,Apple 宣佈與 Google 建立多年合作夥伴關係。在可預見的未來,Apple 的 AI 功能,包括更個人化的 Siri 版本,將會採用與 Google Gemini 團隊合作打造的客製化模型。
個人資料保留在裝置上、匿名化請求
iOS 26.4 中的 Siri 將比現有的 Siri 更接近 Google Gemini,但仍不具備完整的聊天機械人能力。Apple 計劃繼續在裝置端執行部分功能,並利用「私密雲端運算」來維護用戶私隱。Apple 將把個人資料保留在裝置上、匿名化請求,並持續允許用戶禁用 AI 功能。因此,更新後的版本將不支援長期記憶或來回對話,Apple 仍計劃採用以語音為主、輔以有限打字功能的介面。
iOS 27 將引進聊天機械人
Apple 預計在 iOS 27 更新中進一步升級 Siri,將其轉變為完整的聊天機械人。屆時,Siri 將能像 Claude 或 ChatGPT 一樣,理解並進行雙向對話。關於 Siri 介面以及聊天機械人版 Siri 如何運作的細節仍待公佈,但 iOS 26.4 將是 Siri 朝 Anthropic 和 OpenAI 產品功能邁進的關鍵一步。
