Rumor

Bloomberg:Apple、SiriにGoogleのAI技術を採用する方向で調整、年間10億ドル規模の契約

※本サイトは、アフィリエイト広告および広告による収益を得て運営しています。購入により売上の一部が本サイトに還元されることがあります。

Bloomberg

Bloomberg

Bloombergが、事情に詳しい関係者によると、AppleはGoogleが開発した超強力な1.2兆パラメータの人工知能モデルに対し、年間約10億ドルを支払う計画と伝えています。このモデルは、Appleが長年約束してきた音声アシスタント「Siri」の大幅刷新を支える役割を担うことになるようです。

関係者によると、両社は長期にわたる評価期間を経て、現在AppleがGoogleの技術を利用できる契約を最終調整中のようです。

iPhoneメーカーは、Siriの基盤技術の再構築にGoogleの支援を頼りにしており、来年新たな機能群を導入する準備を整えている。Googleモデルの1.2兆というパラメータ数(AIソフトウェアの複雑さを測る指標)は、Appleの現行モデルをはるかに凌駕します。

Appleは以前、この課題に対応するため他のサードパーティ製モデルの使用を検討していて、Bloombergが当時報じたところでは、Gemini、OpenAIのChatGPT、AnthropicのClaudeをテストした後、Appleは2025年前半にGoogleに焦点を絞ったようで、自社のモデルが十分な性能を持つまでの暫定的な解決策としてこの技術を活用する見込みのようです。

カスタムGeminiシステムは、現在クラウド版Apple Intelligenceで使用されている1,500億パラメータモデルから大幅な進化を遂げることになり、この動きにより、システムの処理能力と複雑なデータ処理・文脈理解能力が飛躍的に拡大する見込みだそうです。

社内で「Glenwood」と呼ばれるこの取り組みは、サードパーティ製モデルによるSiri改良を目的としており、Vision Proヘッドセット開発責任者のMike Rockwell氏とソフトウェアエンジニアリング責任者Craig Federighi市が主導しているそうです。iOS 26.4で導入予定の新型音声アシスタント自体のコードネームは「Linwood」だそうです。。

この提携により、GoogleのGeminiモデルはSiriのサマライザー機能とプランナー機能を担うことになり、これらは音声アシスタントが情報を統合し、複雑なタスクの実行方法を決定する際に重要な役割を果たす。一部のSiri機能は引き続きAppleの自社モデルを使用します。

このモデルはApple独自のPrivate Cloud Compute上で稼働し、ユーザーデータがGoogleのインフラから完全に隔離されることを保証します。Appleは既にモデル駆動用にAIサーバーハードウェアを割り当て済みだそうです。

提携は実質的だが、公に宣伝される可能性は低いようで、AppleはGoogleを裏方技術サプライヤーとして扱う方針のようです。これはSafariブラウザ契約(Googleをデフォルト検索エンジンとした)とは異なる形態となります。

また、この合意は、GeminiをチャットボットとしてSiriに直接統合する以前の協議とも別個のもで、そうした協議は2024年と今年前半に実現寸前まで進んだが、最終的に機能として具体化することはなかったようです。

今回の提携も、Google AI検索をAppleのOSに組み込むものではないと考えられるそうです。


関連記事

この記事のハッシュタグ から関連する記事を表示しています。

新着記事