Googleは5月21日2時(日本時間)に開発者会議「Google I/O 2025」の基調講演を行ない、同社の生成AI「Gemini」とそれを使った各種プロダクトの最新情報が公開された。
Geminiはより高度で賢く。利用量は昨年比で約50倍に
Googleが開発・提供している生成AI「Gemini」の最新主力モデル「Gemini 2.5 Pro」は、さらに性能が向上し、AIモデルのベンチマークLMArenaでは全カテゴリで1位を獲得したという。
AI処理を実行するGoogle独自開発のプロセッサとしては、前世代の10倍のパフォーマンスを実現する第7世代TPU「Ironwood」を開発し、今年後半にも提供される予定だという。
利用量も急速に増加していて、昨年は1カ月あたり9.7兆トークンを処理していたが、現在は毎月480兆トークンを処理しているという。この急激な進歩について、GoogleのピチャイCEOは「数十年にわたる研究が世界中の人々にとって現実のものになりつつある」と説明し、さまざまな成果物を紹介した。
3Dビデオ会議システム「Google Beam」
AIを応用したプロダクトして最初に紹介されたのが、3Dビデオ会議システムの「Google Beam」だ。ディスプレイの額縁に内蔵された6台のカメラで話者を別アングルから撮影し、それをAIがリアルタイムで3Dモデルに変換し、相手側の裸眼立体視ディスプレイに表示する。
これはProject Starlineとして開発されていたもの。デバイスはHPと協業し、2025年後半に早期カスタマー向けに提供され、今回のGoogle I/Oから数週間以内にHPから情報が公開される予定となっている。
ビデオ会議サービスのGoogle Meetにはリアルタイム音声翻訳機能が追加される。テスト版として英語とスペイン語の音声翻訳機能がすでに提供されていて、今後数週間でほかの言語にも展開していく予定。企業向けには今年後半に提供される。
「Project Astra」の機能が「Gemini Live」に
以前のGoogle I/Oなどで発表されていた「Project Astra」で開発された機能が、Geminiアプリ内に導入されることも明らかにされた。
Project Astraはスマホのカメラに写る映像などをリアルタイムでGeminiが解釈するというもの。このProject Astraの機能は、Geminiとリアルタイムで会話をするGemini Liveの機能のひとつとして実装される。
対応するスマートフォン(Google Pixel 9シリーズなど)ではすでに利用が可能になっている。Geminiアプリの右下のLiveアイコンをタップすると、対応スマートフォンではビデオカメラと画面共有のアイコンが表示されるので、それらをタップすると、カメラに写ったリアルタイムの映像やスマートフォンの画面がGeminiと共有され、それに関して調べ物をしてもらったり相談したりできる。
現状ではスマートフォンを使っているが、視覚障害者をアシストする用途にも応用できるもの。後述するグラス型デバイスとも密接に関係する機能にもなっている。
このほかにもGemini Liveは、数週間後に提供されるアップデートにより、カレンダーやマップ、Keepと言ったGoogleアプリと連係できるようになる。
Geminiが代わりに作業をしてくれる「Project Mariner」
研究開発中のプロダクトとして、Geminiが何かの作業を実行してくれる「Project Mariner」の実用化も発表されている。従来「Jarvis」という名称で開発されていたもので、昨年12月にプロトタイプがリリースされている。
Project Marinerは、「家賃1200ドルで近くにコインランドリーのある賃貸物件を探す」といったWeb上での作業をユーザーに代わって実行するエージェントとなっている。こうしたAIエージェントのエコシステム全体が発展するために、エージェント同士やエージェントとサービスとの通信プロトコルも用意される。
このAIエージェントもGeminiアプリに実装される予定で、近日中に試験バージョンが提供される予定とのこと。
「パーソナルコンテキスト」の活用も強化
Geminiは個々人の持つさまざまな情報、いわゆる「パーソナルコンテキスト」を利用し、よりパーソナルな機能を実現していく。
例えばGmailではすでにAIを使ったSmart Reply機能があるが、それがより強化される。
基調講演のデモンストレーションでは、友人からユタ州へのドライブ旅行に行ったことのある自分に対し、アドバイスを求めたメールが届いたときの例が示された。
Geminiはこのメールに対し、過去のホテル予約のメール、Googleドライブ内のメモなどを元に、ザイオン国立公園への旅程を作成する。さらにGeminiは前回までの自分の送信メールからあいさつ文や口調などを学習し、それを元に返信を作成する。
これらの機能は夏にGmailユーザー向けに提供されるという。
Geminiが自然界をより理解するように
Geminiが自然界の物理法則などをより理解し、動画生成の「Veo」などに反映するようになる。たとえばGeminiが重力の法則や素材の性質などを理解することで、映像内で創造されたものが不自然な挙動をしなくなるという。
こうした現実世界のモデルをGeminiが理解することは、Geminiを使ったロボット工学向けのAIモデル「Gemini Robotics」にも応用される。
このほかにも科学分野向けのAIも引き続き進化していて、数学分野向けの「AlphaProof」、医療分野向けの「AMIE」、高分子学向けの「AlphaFold」などが開発され、それぞれの分野で活躍していることも紹介された。
Google検索もAI活用がさらに進化
Google検索にはすでに「AIによる概要」が試験的に導入されているが、これをさらに強化した「AIモード」が追加される。
Googleでの検索結果は、現状では「すべて」や「画像」「地図」などがあり、タブで切り替える形式となっているが、このタブの一番左に「AIモード」が追加される。このAIモードはまず米国のユーザーから提供される。
AIモードでは検索ワードを入力するのではなく、生成AIにリクエストするときのように長文で問いかけることができて、Geminiによる回答が得られる。
この回答には個人のコンテキスト、例えば過去の検索履歴やGmailなど連係させているサービスのデータも反映される。過去のレストラン予約の結果から屋外席を好んでいるとわかれば、そうした好みも回答に反映される。旅行先での観光プランを検索すれば、Gmailの受信ボックス内にあるフライト確認メールから旅行日程を理解し、その日程に合わせたイベントが提案される。
Gmailなどのサービスを連係させるかどうかは、ユーザーがオン・オフを選べるようになっている。このパーソナルコンテキストを反映するAIモードは、今夏より実装される。
このほかにも「ディープサーチ」という機能も追加される。こちらはリクエストに即座に返答するのではなく、AIが数分をかけて調査し、専門家レベルのレポートを作成する。また、AIモードでの検索結果はグラフを作成するといったことも可能になる。
画像生成AIもバージョンアップ
画像生成AIは新バージョンの「Imagen 4」となり、画像内に描かれるテキストがより高精度になる。高速バージョンも提供される。
動画生成AIは新バージョンの「Veo 3」も発表された。こちらは前述の物理学を理解することでより自然な生成ができるようになったほか、効果音やセリフも映像とシンクして出力される。
これらのAIが生成したメディアを判定するために、透かし(ウォーターマーク)技術のSynthIDも活用されている。現在までに100億を超える生成物に透かしが入れられている。画像や動画、音楽、テキストの全体あるいは一部にSynthIDが入っているかどうかを検出できるツールが早期テスター向けに提供開始される。
Veo 3とImagen 4を統合し、高度な映像コンテンツを制作するためのツール「Flow」もリリースされる。
Flowではシーン単位で動画を作っていける。各シーンの製作過程では、まず登場するキャラクターや小物などの静止画をImagen 4で生成し、それらを元にVeo 3でそのシーンの動画を作る。そうしたシーン作成を積み重ね、長い映像を作る。キャラクターや小物、背景、スタイルなどを画像で参照させることで、シーン内はもちろんシーン間での一貫性も保つことができる。
サブスクリプションプランは「Pro」に加えて「Ultra」を追加
GeminiなどGoogleの各種AIサービスを使うための有料サブスクリプションプランには、従来「AIプレミアムプラン」として提供されていたものが「Google AI Pro」という名称となり、さらに上位のプランとして「Google AI Ultra」が追加される。いずれもまずは米国で提供され、その後、全世界に展開する予定。
Google AI Proは月額19.99ドル(約2900円)、Google AI Ultraは月額249.99ドル(約3万6000円)。ProではVeo 2までだが、UltraではVeo 3が利用できたり、各AIサービスの利用限度が引き上げられ、Project Marinerの早期アクセス、YouTubeプレミアム個人プラン、30TBストレージなどが利用できる。
ゴーグルだけでなくメガネ型デバイスにも展開する「Android XR」
現在開発中のXRプラットフォーム「Android XR」の最新情報としては、発表済みの「Project Moohan」に加え、メガネ型デバイスも登場することが明らかにされた。
サムスンやクアルコムとともに開発中の「Project Moohan」は、非透過型ディスプレイを搭載するゴーグル型デバイスで、作業やゲーム、映像コンテンツに没入するようなMR/VRの用途で使われることを想定している。
一方、今回公開されたメガネ型デバイスは、見た目はほぼ普通のメガネで、カメラとマイク、スピーカーで「Project Astra」が統合されたGemini Liveを動作させるイメージとなる。ディスプレイはオプション扱いで、搭載してもちょっとした文字や映像をAR的に表示する程度の、現実視野を邪魔しない視野角の小さな透過型ディスプレイとなる。
このメガネ型デバイスは、常に身につけるスマートウォッチなどのウェアラブルデバイスに近い位置づけとなるようで、一日中着用できるように設計されるという。開発にあたっては、メガネメーカーのGentle MonsterとWarby Parkerが最初のパートナーになるとのこと。度入りレンズも使える。
このメガネ型デバイスが搭載するカメラとマイクでGemini Liveを使うことで、例えば両手で機械のメンテナンス作業をしながらアドバイスを聞く、といったことがスムーズに行なえるようになる。過去の情報も覚えているので、「先ほど飲んだカップに書かれていたコーヒーショップは?」といった質問もできる。
オプションのディスプレイがあればGeminiからの回答を音声だけでなくテキストや画像、地図で表示することもできる。ディスプレイを使わない通話や音楽聴取といったヘッドセット的な用途にも使える。
Android XRについては、ゴーグル型のProject Moohanが今年後半に販売されるとアナウンスされているが、Android XRに関する多くの新情報が今後数カ月のあいだに発表される予定だという。
🧠 編集部の感想:
Google I/O 2025での発表は、AI技術の進化を実感させるものでした。特にGemini 2.5 Proの性能向上や、3Dビデオ会議システム「Google Beam」は、未来のコミュニケーションの形を示しています。AIが私たちの生活をより便利にする一方で、プライバシーや倫理の問題も考慮する必要があると思います。
Views: 0