「Siri、もっと賢くなって……」と思われてから、どのくらい経ったでしょうか。2024年のWWDCでApple Intelligenceが発表され、Siriにも大幅な進化が約束されましたが、正直なところ、現時点での変化はかなり厳しい状況です。
そんな中、BloombergやMacRumorsなどの海外メディアが、2026年春に「LLMベースの新Siri」が登場すると報じています。ChatGPTやGeminiのような会話型AIに近づくという期待が高まっていますが、本当にそこまで賢くなるのでしょうか?
そこで、海外の報道や公式情報を整理しながら、「どこまで賢くなる可能性があるのか」「どこから先は期待しすぎなのか」を確認したいと思います。新しいSiriに過度な期待を抱く前に、現実的なラインを把握しておきましょう。
2026年春、Siriはこう変わる「予定」
まずは、現時点で報じられている情報を整理していきます。
報道されているタイムラインと主な変更点
Bloombergのマーク・ガーマン氏によると、Appleは2026年春(iOS 26.4のタイミング)に、LLM(大規模言語モデル)ベースの新しいSiriをリリースする計画だとされています。この新Siriは、より自然な会話が可能になり、複数のアプリをまたいだ複雑な操作にも対応できるようになるとのことです。
技術的な特徴としては、次のポイントが挙げられています。
- 会話型AIモデルの採用:ChatGPTのような自然な対話が可能に
- オンデバイス処理の強化:プライバシーを保ちながらローカルで高度な処理を実行
- App Intentsの本格活用:アプリ間連携がより深く、複雑なタスクも音声で操作可能に
Apple公式が示してきた方向性
これらの報道を裏付けるように、Appleは2024年のWWDCセッションで「App Intents」という開発者向けフレームワークを強化し、Siriとアプリの連携を深める方向性を明確にしています。
公式ドキュメントでも、次のような機能が段階的に実装される計画が示されていました。
- 画面上のコンテンツをSiriが理解して操作できる機能
- メール、カレンダー、メモなど個人情報を横断した文脈理解
- 複数ステップにわたる処理の自動化
ただし、「あくまで計画・目標である」というのがポイント。Appleは過去にも機能のリリース時期を変更したことがあり、今回も状況次第で時期や内容が変動する可能性は十分にあります。
新Siriで「できるようになるはず」のこと
では、具体的にどんなことができるようになると期待されているのでしょうか。9to5MacやMacRumorsがまとめている情報を基に、用途別に整理してみます。
iPhone操作系の進化
最も注目されているのが、アプリをまたいだ音声操作の実現です。
たとえば、「明日の会議資料をメールで送って、それをカレンダーに追加して、リマインダーもセットして」といった複数ステップの指示を一度に出せば、Siriが自動的に処理してくれるようになるとされています。
これまでのSiriは、1つのアプリ内での操作には対応できても、複数のアプリにまたがる処理は苦手でした。新Siriでは、このハードルが大幅に下がる見込みです。
文脈理解系の大幅改善
画面に表示されている内容をSiriが読み取って操作できる機能も報じられています。
具体的には、次のようなシナリオが想定されているようです。
- メールを開いている状態で「これを要約して」と言えば、そのメールの内容を要約
- ウェブ記事を読んでいるときに「これをリマインダーに追加」で、記事のURLや要点をリマインダー化
- 写真アプリで特定の画像を表示中に「これを友達に送って」で、適切な共有方法を提案
これは、画面上のコンテキストをSiriが理解できるようになることで実現される機能です。Apple公式の開発者向けドキュメントでも、この機能の実装方法が詳しく解説されています。
パーソナル情報系の横断検索
最も期待されているのが、個人データを横断して理解する能力です。
たとえば、「来週の出張の準備、まだ足りないものある?」と聞けば、Siriがメール、カレンダー、メモ、リマインダーなどを確認して、未完了のタスクや予約していない項目を教えてくれるようになると報じられています。
これまでのSiriは、個別のアプリ内のデータには答えられても、複数のアプリをまたいで文脈を理解することは困難でした。新Siriでは、ユーザーの「個人的な文脈」を総合的に把握できるようになる見込みです。
ChatGPT的な自然な会話への対応
LLM化によって、フォローアップ質問への対応も改善されるとされています。
従来のSiriは、一度の会話が完結すると次の質問では文脈がリセットされてしまうことが多かったですよね。新Siriでは、「それってどういう意味?」「さっきの件、もっと詳しく教えて」といった追加質問にも、会話の流れを保ちながら答えられるようになると期待されています。
ただし、これらはすべて「報道されている内容」「期待されている機能」であり、実際にどこまで実現されるかは、2026年春のリリースを待たなければわかりません。
それでもSiriはChatGPTにはならない
「ついにSiriもChatGPT並みになるのか!」と期待が高まるかもしれません。しかし、現実はそう単純ではないようです。
Appleが守る「プライバシー・オンデバイス重視」の姿勢
複数のアナリストや報道が指摘しているのは、Appleが「プライバシー保護」と「オンデバイス処理」という方針を維持し続けるという点です。
これは、ChatGPTやGeminiのようにクラウド上で大量のデータを処理する汎用AIとは、根本的にアプローチが異なります。新Siriは、できる限りデバイス内で処理を完結させ、個人情報をAppleのサーバーに送らない設計になると見られています。
この姿勢は、ユーザーのプライバシーを守るという点では優れていますが、処理能力や対応範囲では汎用LLMに劣る可能性が高いということでもあります。
守備範囲は「OSレベルのアシスタント」に絞られる
報道やアナリストの分析を見ると、Appleは新Siriの役割を「OSレベルのパーソナルアシスタント」に絞っているようです。
つまり、次のような用途については他社のLLMに分があると考えられています。
- 長文の文章生成やブログ記事の執筆
- プログラミングコードの作成やデバッグ
- 専門的な知識に基づく深い議論や分析
実際、Appleは2024年にChatGPTとの連携機能を発表しており、こうした汎用的な用途については外部モデルに任せる戦略を取っています。
「どこまで賢くなるか」の2軸整理
新Siriの「賢さ」を現実的に評価するなら、次の2軸で考えるとわかりやすいでしょう。
OS操作・個人情報まわり:かなり賢くなる可能性が高い
- アプリ連携の深さや、個人データの横断理解という点では、従来のSiriから大きく進化する
- iPhoneやiPadを日常的に使う上での利便性は、体感できるレベルで向上するはず
汎用知識・創作系:依然として専門LLMに分がある
- 長文生成、コーディング、専門的な議論などは、ChatGPTやGeminiの方が得意
- Appleもこの領域では他社モデルとの連携を前提にしている
つまり、「Siriが日常のiPhone操作をスマートにしてくれる」という期待は現実的ですが、「Siriが万能のAIアシスタントになる」という期待は早すぎるということですね。
まだ見えていないラインと「怪しい」噂
さて、ここまでポジティブな話が多かったですが、実は不透明な部分もかなりあります。
ガーマン氏の弱気な見通し
最初に新Siriの計画を報じたBloombergのマーク・ガーマン氏自身が、後に「フル機能の会話型Siriは2027年以降になるかもしれない」という弱気な見通しを示しています。
これは、2026年春のiOS 26.4で登場するSiriが「完全版」ではなく、「第一段階」に過ぎない可能性を示唆しています。
どの機能が「初期版」で、どれが「後回し」か不明
報道を読み比べると、メディアやアナリストの間でも見解が分かれている部分があります。
たとえば、次のような点は情報が錯綜していますね。
- 複数アプリ連携の範囲: どのアプリまで対応するのか
- オンデバイス処理の範囲: どこまでローカルで動き、どこからクラウドが必要か
- 外部LLM連携の扱い: ChatGPTやGeminiとの統合がどう進化するのか
これらは、Apple公式の発表がない限り、確定情報とは言えません。
ユーザーはどこまで期待していいのか
いずれにせよ、この新Siriにどの程度使えるものになるのか?そこが興味のある点です。
Apple Intelligence第1世代の評価を踏まえて
2024年に登場したApple Intelligence(Siriの現行版)は、「インパクトが弱い」という評価が多かったと思います。
通知要約やライティングツールなど、確かに便利な機能はありましたが、「これが未来のAIか!」と感動するほどではなく、正直期待外れ。この経験を踏まえると、新Siriも「魔法のような体験」というより「実用性の堅実な向上」と捉えた方が現実的かもしれません。
日常の積み重ねとしてのインパクト
たとえ派手さはなくても、「毎日何度も使うSiriが1段階賢くなる」というのは、長期的には大きな体験の変化につながります。
朝起きて「今日の予定を教えて」と聞いたとき、Siriがメールやカレンダーだけでなく天気や交通情報まで総合的に判断して提案してくれる。仕事中に「このメールを要約してタスクに追加」と言えば、面倒な手作業が一瞬で終わる。こうした小さな便利さの積み重ねは、実は毎日の生活に大きく影響しますよね。
「土俵に立つ」ことの意味
現時点で、GoogleのPixelシリーズに搭載されているGeminiは、個人情報の横断検索やアプリ連携という点でiPhoneよりも一歩先を行っています。
新Siriが報道通りに進化すれば、ようやく同じ土俵に立てそうです。創作系や知識系のタスクでは汎用LLMに軍配が上がりますが、「iPhoneを使いこなす」という点では、十分に満足できるレベルに達する可能性があります。
期待値のまとめ
- 日常のOS操作とパーソナルコンテキスト:大きく改善する見込み
- 創造系・知識系タスク:引き続き汎用LLMの方が優れている
- 体験としてのインパクト:派手ではないが、長期的には大きい
このバランス感覚を持っておくと、新Siriが登場したときに「思ったより良かった」と感じられるかもしれません。
まとめ
2026年春に予定されている新Siriは、LLMベースの会話型AIへと進化し、アプリ連携や個人情報の横断理解といった面で大きく改善される見込みです。ただし、これはあくまで「報道ベース」の情報であり、実際にどこまで実現されるかは正式発表を待たないといけません。
やはり、新Siriは、ChatGPTやGeminiのような汎用LLMとは異なるアプローチを取るのがポイントになりそう。Appleはプライバシーとオンデバイス処理を重視し、「OSレベルのパーソナルアシスタント」としての役割に特化していく方針とみられています。つまり、iPhone操作や個人情報まわりでは大幅に賢くなる一方、長文生成やコーディングといった創作系タスクでは汎用LLMに分があるという構図が続くでしょう。
また、2026年春版は「完全版」ではなく長期ロードマップの第一段階と位置づけられており、本格的な会話型Siriは2027年以降になる可能性も報じられています。過度な期待は禁物ですが、日常的に使うアシスタント機能が実用的に向上することの価値は小さくないと思いますね。


