AIじゃないよ

Apple×Gemini連携で「Siri」はどう変わるのか:新機能・リリース時期・日本語対応の現状整理

当サイトはアフィリエイト広告を一部掲載しています。

2026年1月、AI開発で出遅れるAppleは、GoogleとのAIパートナーシップを発表した

次世代の「Apple Foundation Models」(Apple IntelligenceのAI処理を担う自社モデル群の内部名称)が、GoogleのGeminiモデルをベースに構築され、2026年中にSiriが大幅にアップグレードされるという内容である。

だが、2月11日にはテスト中の問題が報じられ、iOS 26.4ベータ(2月17日リリース)には新Siri機能が搭載されなかった。

3月4日に迫るAppleの新製品発表会イベントを目前に控え、いつGeminiを搭載したAI機能群がリリースされるかが最大の関心事になっている。

本記事では、この提携の背景から具体的なスケジュール、そして日本のユーザーへの影響まで、現時点で判明している情報を整理する。



約束された「Siriの大型アップグレード」は2年遅れ

AppleがSiriの大型アップグレードを発表したのは、はるか昔、2024年6月のWWDC 2024である。

「Apple Intelligence」と名付けられたAI機能群の一部として、よりパーソナルで賢いSiriが披露された。

しかし、当初2025年春を予定していたリリースは、延期に延期を重ねている。

発表から約2年が経過しても、ユーザーの手元に届いていない状況だ。

背景には、Apple社内のAIモデル開発の限界がある。

OpenAIのChatGPT、GoogleのGemini、AnthropicのClaudeと競合他社が次々と強力なモデルをリリースする中、Appleは沈黙を続けている。

延期後のロードマップとスケジュールの目安

現時点で報じられている今後のスケジュールを整理すると、以下のようになる。

時期イベントSiri / AI関連の予想
2026年3月4日Apple Experience(NY・ロンドン・上海)新製品発表。新Siri機能のデモがあるかは不確定
2026年春(3〜5月)iOS 26.4 / iOS 26.5 正式リリースGeminiベースの新Siri機能の一部がリリースされる可能性
2026年6月WWDC 2026iOS 27のプレビュー。チャットボット型Siri「Campos」の発表が有力
2026年9月iOS 27 正式リリースiPhone 18シリーズと同時リリース。AFM v11(Gemini 3相当)搭載
2026年後半Baltraチップ量産開始Apple独自のAI推論用チップ(Broadcomと共同開発)
2027年Baltraデータセンター展開Google依存からの脱却に向けた第一歩

iOS 26.4 / 26.5:Gemini搭載Siriの第一弾

iOS 26.4に搭載が予定されていた「新生Siri」は、Apple社内で「Apple Foundation Models v10」と呼ばれるカスタムGeminiモデルだ。

しかし、2月17日にリリースされたiOS 26.4ベータには、新Siri機能は含まれていなかった。

おそらく3月4日のイベントでの発表はなく、iOS 26.5(5月頃)での部分的なリリースが現実的なシナリオとみられる。

iOS 27 / WWDC 2026:チャットボット型Siri「Campos」

9to5Macの報道によれば、秋以降のiOS 27ではさらに進化した「Apple Foundation Models v11」が搭載される。

v11は「Gemini 3に近い品質」とされ、iOS 26.4 / 26.5に搭載される予定のモデルより、さらに大幅に高性能だという。

また、「Campos」というコードネームで開発が進む「チャットボット型Siri」が登場する見込みだ。

Siriが、ChatGPTやGeminiアプリのような使い心地になることが期待される。

Baltraチップ:2027年以降の自立に向けて

Appleは長期的には自社インフラでのAI推論を目指している。Broadcomと共同開発中のAI推論専用チップ「Baltra」は、2026年後半に量産が始まり、2027年にデータセンターへの展開が予定されている。これが稼働すれば、Googleへの依存度を段階的に下げることが可能になる。

新しいGemini搭載Siriの日本語対応予定

Apple Intelligenceの日本語対応は着実に進んできた。

2025年3月31日のiOS 18.4で日本語サポートが開始され、現在は以下の機能が日本語で利用可能である。

  • 文章校正・要約・書き換え(作文ツール)
  • 通知の要約
  • 写真の自然言語検索
  • メッセージのライブ翻訳
  • ビジュアルインテリジェンス(対応iPhoneモデル)

ただし、Gemini搭載の新しいSiriが日本語をサポートするかどうかについては、まだ明らかになっていない。

新Siri機能(パーソナルコンテキスト、オンスクリーン認識、クロスアプリ操作)は、英語でのみデモされており、初期リリースでは非対応の可能性もある。

筆者の予想では、英語でのリリース後、数か月以内に日本語対応が行われるだろう。ただし、iOS 27(2026年9月)での対応が最も現実的なタイミングかもしれない。

Siri + Geminiで期待されるアップグレード

現行のSiriと、アップグレード後Siriでは、以下のような違いが実現される見込みである。

ただし、いずれも報道ベースの情報であり、最終的にどのタイミングでどの機能がリリースされるかは不確かである。

項目現在のSiri新しいSiri(Geminiベース)
画面の理解不可表示中のコンテンツを認識して応答
個人データの活用限定的(リマインダー、カレンダー程度)メール・メッセージ・写真等を横断的に参照
アプリ間操作単一アプリ内のみ複数アプリをまたいだ連続操作が可能
会話の自然さコマンド型(決まったフレーズ)より自然な対話(文脈を保持)
AIモデルの規模約1,500億パラメータ1.2兆パラメータ(約8倍)

オンスクリーン認識:画面の内容をSiriが理解する

現在のSiriは、画面に何が表示されているかを把握できない。

新しいSiriでは、表示中のコンテンツを理解した上で応答できるようになる。

例えば、友人からLINEで送られてきたレストランの情報を見ながら「ここを予約して」と話しかければ、Siriが画面上のレストラン名と電話番号を認識し、予約の操作を開始する、といった体験が可能になると考えられる。

パーソナルコンテキスト:メール・メッセージからユーザーを理解する

テキストメッセージ、メール、カレンダーなどの個人データを基に、Siriがユーザーの状況を把握して応答を最適化する。

「来週の出張の準備は?」と聞けば、カレンダーの予定、関連メール、フライト情報を横断的に参照して、パッキングリストの提案や必要な手配のリマインドを返してくれる、といったイメージだ。

クロスアプリ連携:アプリをまたいだ操作の自動化

現在のSiriは基本的に1つのアプリ内で完結する操作しかできないが、新Siriでは複数のアプリにまたがるアクションが可能になる。

「昨日の会議のメモを要約して、参加者にメールで送って」といった複数ステップのタスクを、Siri一つで処理できるようになることが期待されている。

3月4日のApple ExperienceイベントでSiri関連の発表はあるか?

3月4日にニューヨーク・ロンドン・上海で同時開催される「Special Apple Experience」では、以下の新製品が予想されている。

  • 低価格MacBook(カラフルなカラーバリエーション)
  • iPhone 17e
  • 新型iPad / Mac
  • スマートホームディスプレイ(スピーカーベース+壁掛けタイプ)
  • 新型Apple TVおよびHomePod mini

スマートホームディスプレイは、アップグレードされたSiriを披露する格好のステージになり得る。

しかし、前述のテスト遅延を考えると、3月4日の時点で新Siriのデモが行われるかは不確定だ。

新製品の購入判断という観点では、以下が重要になる。

iPhone 17eや新型iPadの購入を検討している場合、これらのデバイスが新しいSiri機能に対応するかどうかは現時点では不明だ。

ただし、Apple Intelligenceの動作要件(iPhone 15 Pro以降、M1以降のチップ搭載Mac/iPad)を満たすデバイスであれば、ソフトウェアアップデートで新機能が提供される可能性は高い。

3月4日のイベントでAI関連のアナウンスがなかった場合でも、6月のWWDCではiOS 27とともにチャットボット型Siri「Campos」が発表される公算が大きい。

新デバイスの購入を急ぐ必要はないが、Apple Intelligence対応チップを搭載したモデルを選んでおくことが、将来の恩恵を受けるための条件になるだろう。

Gemini搭載Siriで「iPhoneの使い方」が変わる

現在のSiriは、日常ではほとんど使ったことがない人が多いのではないか。

2年待たされた分、今回のアップグレードによる進化への期待は大きい。

画面の内容を理解する、メールやカレンダーを横断的に参照する、複数アプリをまたいで操作するなど、これまでのSiriでは不可能だった体験が、ようやく実現に向かっている。

誰がモデルを作ったかより、自分のiPhoneで何ができるようになるかが重要だ。GeminiであろうがChatGPTであろうが、iPhoneが便利になればそれで良い。

一方、Appleはユーザーのプライバシーを重視するアピールを繰り返してきただけに、「Googleと組んでプライバシーは大丈夫なのか」という疑問は当然出てくる。

しかし、2026年1月の決算発表でのTim Cookの発言によれば、Geminiと連携したとしても、オンデバイスとPrivate Cloud Compute(PCC)という従来の原則は守るという。

PCCとは、ユーザーデータを外部に渡さず、Apple管理のサーバー上でAI推論を行うクラウド基盤である。

言葉通りに受け取るならば、Geminiモデルの推論も、このPCC上で実行され、ユーザーデータがGoogleに渡ることはない、ということだ。

2026年春の部分リリース、そしてWWDC 2026でのiOS 27プレビューを楽しみに待ちたい。

筆者プロフィール画像

この記事を書いた人 kumori

AIツール/アプリ/ガジェットを実際に検証し、具体のユースケースまで噛み砕いて解説しています。

  • 米国の大学院で統計学(修士)
  • Python・Rによるデータ分析
  • マーケティング/広告運用(TV〜Web、数十億規模PJのリード経験)



Make a comment

*
*
* (公開されません)