Apple Intelligence 的裝置端 AI 容易受到 prompt injection 攻擊,最新研究顯示,這種攻擊具有很高的成功率,並可能存取敏感的使用者資料。RSAC Research 的研究人員發現了一種繞過 Apple 安全措施的方法。他們透過使用對抗性提示和 Unicode 混淆,在 100 次測試中取得了 76% 的成功率。
重點文章
混合設計成潛在缺口
Apple Intelligence 採用混合設計,較小的模型在本機端運行,更複雜的處理則透過 Private Cloud Compute 處理。RSAC 的研究顯示,更深入的系統級整合也增加了潛在的攻擊面。攻擊者可以利用這種整合,透過精心設計的輸入來影響應用程式的行為和模型的輸出。
Apple 已著手強化安全防護
研究人員展示了該系統可能會產生冒犯性或非預期的回應,且風險遠不止於文字輸出。Apple Intelligence 透過系統 API 直接連接到應用程式,因此受操縱的回應可能會影響應用程式的行為或暴露敏感資料。RSAC 估計,已經有 10 萬到 100 萬使用者可能正在使用具有潛在風險的應用程式。Apple 已在 iOS 26.4 和 macOS 26.4 中加強了保護,但尚未公開詳細說明這些變更。研究強調,無論模型在哪裡運行,其真實世界的安全性取決於其有效抵禦對抗性輸入的能力。
