この件に詳しい関係者によると、Appleは次世代オペレーティングシステムの「Apple Intelligence」に、ChatGPTを含むがこれに限定されない、好みのサードパーティ人工知能モデルをユーザーが選択できるようにする予定だという。ブルームバーグのマーク・ガーマン記者は、アップルが今秋発売されるiOS 27、iPadOS 27、macOS 27向けのシステムレベルのインターフェースを開発中で、これにより外部のチャットボットがアップルのAI機能の多くにアクセスして駆動できるようになると報じた。

既存のプランでは、これらのサードパーティモデルはシステム内で「拡張機能」と呼ばれます。これらは Siri の会話機能を引き継ぐだけでなく、ライティング ツールやイメージ プレイグラウンド (イメージ作成) などの Apple インテリジェンス機能の基礎となるモデル サポートも提供します。これは、ユーザーがシステムの執筆支援、画像生成、その他の機能を呼び出すときに、Apple 独自のモデルとさまざまなメーカーのモデルを自由に切り替えて、よりオープンな AI 機能の組み合わせを形成することが期待されることを意味します。
このレポートは、AppleがAIモデルごとに異なるSiriの音声をユーザーが指定できるようにするテストも行っていると指摘した。たとえば、Siri が Apple の自社開発モデルを利用している場合、Siri は 1 セットの音声を使用でき、Siri が ChatGPT または他のサードパーティ モデルに基づいて実行されている場合は、別の音声に切り替わるため、ユーザーは日常使用において現在どの AI セットが実行されているかを直感的に区別できます。
公開された情報によると、関連するサービスプロバイダーがApp Storeアプリケーションを通じてこの拡張メカニズムに積極的に適応し、「オプトイン」することを条件として、将来的にユーザーは「アクセスを選択するAIモデルサービスプロバイダー」から開始できるようになります。互換性のある AI アプリがインストールされると、ユーザーはシステム設定でそれを優先 AI モデルとして設定でき、Apple Intelligence のあらゆる場所でデフォルトの選択肢になります。
Mark Gurman氏は、AppleはすでにGoogleやAnthropicなどの企業とモデル統合ソリューションをテストしていると述べた。その中で、Google のモデルは、Apple の今後の Siri 全面見直しの主要な基盤技術の 1 つともみなされており、今回の拡張計画では、この協力関係がシステムのより広範な AI 使用シナリオにさらに拡張されます。現在、Apple は OpenAI の ChatGPT を Apple Intelligence に統合していますが、正式に接続されている唯一のサードパーティ モデルです。この「単一サプライヤー」というステータスは、明らかに今後の Apple の最終的な方向性ではなくなります。
上記の計画が予定通り進めば、iOS 27および同シリーズのシステムは「内蔵ChatGPTアクセスのみ」から「複数モデルを並列、ユーザー選択可能」のオープンアーキテクチャに移行することになる。これにより、ユーザーに大きな自由が提供されるだけでなく、端末側の AI エコシステムにおける Apple のプラットフォームとしての役割もさらに強化されます。独自の統合クラウドサービスを直接提供することなく、システムレベルの入口を通じてさまざまなAIモデルメーカーに統合アクセスチャネルを提供する。