Apple 在 AI 方面一直都被視為落後於其他科技企業,不過剛剛推出的 iOS 26.1 開發者測試版的程式碼就顯示,Apple 正在將對「MCP(模型上下文協定)」的支援整合到 iPhone 中,讓 iPhone 能利用這種被視為 AI 助理與外部資料及工具聯繫的標準協定與第三方 AI 應用對接,提供更多有用功能,亦讓第三方 AI 應用可在 iPhone 上進行更多操作。

「MCP(Model Context Protocol,模型上下文協定)」是由 Anthropic 於 2024 年底推出的開放標準協定,專門讓大型語言模型(如 AI 助理)以標準化、安全的方式對接外部資料和工具,被視為 AI 世界的通用接口,相當於互聯網的 HTTP 或電腦的 USB-C。AI 可以透過 MCP 查詢、讀取並操作各種外部資源,包括資料庫、文件、API 等。
使用 MCP 的好處是讓 AI 能即時存取企業內部資料、協助自動化操作,不再只能根據訓練時已知資訊回覆問題。此外,MCP 亦加強對安全與權限控制,確保資訊的可追溯與安全整合。
現時市場已經有成千上萬的 MCP 伺服器提供各種各樣資料和工具,AI 應用開發商毋須針對個別數據來源單獨設計接口,大幅節省整合成本。Apple 整合 MCP 就讓 iOS 和 Mac 應用能與第三方 AI 系統互動。Apple 在 iOS 16.0 SDK 就加入了名為 App Intents 的框架,讓開發商能將應用程式的功能和內容深度整合到 Siri、Spotlight、小工具等系統體驗中。當用戶向 Siri 和 Apple Intelligence,或利用 Spotlight 查詢時,例如查詢當前畫面上看到的內容時,Siri 就能適切地提供這些第三方應用的功能和資料給用戶,而用戶也能使用這些功能來要求 iPhone、iPad 和 Mac 機進行一些操作。

去年 WWDC 時,Apple 發布了一個具備 30 億參數、用於裝置上的泛用生成式 AI 模型「Apple Intelligence Foundation Models」,支撐 Apple Intelligence 的功能。據早前傳聞,Apple 計劃推出一款由 Foundation Models 支援的網路搜尋功能,據稱該功能將能調用 Google Gemini 技術,以強化 Siri 的資訊彙整與摘要能力。
據知新 Siri 將會由三個核心部分——策劃者、搜尋操作者和彙整者——組成,Foundation Models 將充當策劃者和搜尋操作者的角色,負責處理裝置上的用戶資料,而 Google 就會提供一個在 Apple「Private Cloud Compute」伺服器平台運行的 Gemini 版本擔當彙整者角色。預計透過 MCP, Google Gemini 將可在 iPhone 上進行更多操作,而 Siri 亦可以引用 Google Gemini 以外的網上資源。

預計新 Siri 將會在預計明年春季推出的 iOS 26.4 才會推出。