キーワードで検索

今日を知り、明日を変えるシステム運用メディア

【速報】Google I/O 2025 技術者 基調講演レポート

2025年5月21~22日(日本時間)に開催されている「Google I/O 2025」は、Googleの最新技術とイノベーションを披露する年に1回の開発者向きのイベントです。米国カリフォルニア州で開催され、世界中の開発者が現地およびオンラインで参加しています。

本日講演された技術者基調講演(Developer keynote)では、開発者向けの最新技術とツールが発表されました。「Gemini時代」をテーマに、GoogleはAIを活用した開発環境の革新と、Android、ウェブ、クロスプラットフォームでのアプリ開発の進化を披露。Gemini 2.5 ProやFlash、Gemmaモデルを活用したデモを通じて、開発者が迅速かつ効率的にアプリケーションを構築できる未来を描きました。

この記事では、講演の主要なポイントを要約し、開発者にとっての意義を探ります。

1. AIベースのUIデザイン生成ツール「Stitch」を発表

まずはじめに、AIを活用した新しいUIデザインおよびフロントエンドコード生成ツール「Stitch」の新発表がありました。

Stitchは、プロンプトからUIデザインとコードを瞬時に生成できます。たとえば、「カリフォルニアのアクティビティ発見アプリ」と入力すると、Gemini 2.5 Flashがデザインを生成されます。

発表では、「Stitchが非常にクールな点は、画面左側でデザインを繰り返し改良したり、ダークモードにしたり、ライムグリーンにしたり、角の丸みを最大にしたりできることだ」と語られました。

また、生成されたデザインはスクリーンショットではないためFigmaにエクスポートして更に編集が可能、HTML/CSSのマークアップもコピーできる点も魅力です。開発者はこちらのサイトで試用できるようです。

2. 新発表「Google AI Studio」と、Gemini 2.5 Pro、Live API、MCPのアップデート

次に、AI開発を加速し、自然な対話やプロトタイピングを可能にする新機能やツールが紹介されました。主にGoogle AI Studio、Gemini 2.5 Pro、Live API、MCP(モデル駆動型プロトタイピング)のアップデートが焦点で、開発者がAIエージェントやアプリを迅速に構築できる環境が強調されました。

特に、音声対応、外部ツール連携、コード生成、ウェブコンテキスト活用の新機能が追加され、開発の柔軟性と効率性が向上しています。

Google AI StudioとGeminiを活用したAI開発の新機能

発表では、AI開発を加速し、より自然で効率的なプロトタイピングを可能にする新しい機能やツールが紹介されました。

まず、Google AI Studioは「Geminiでこれ作れる?」と質問するだけで、望むものを開発してくれるプラットフォームを目指しています。Google AI Studioにはネイティブコードエディタが搭載されており、Gemini APIを使ったウェブアプリを迅速に生成できます。

講演では、GeminiとImagineを用いたAI搭載アドベンチャーゲームでは、モデルがアプリの仕様を構成し、コード生成やエラー修正を自動で行うデモが実演されました。プロンプトの改良を通じてアイデアを洗練し、迅速な反復開発が実現できます。

Live APIと音声・コンテキスト機能の進化

Live APIでは、Googleの次世代AIエージェント「Project Astra」の機能が利用可能となり、新たに2.5 Flashネイティブオーディオモデルが導入されたと発表されました。このモデルは雑音や他者の声を無視する性能が向上しており、24言語がネイティブでサポートされています。

さらに、Geminiモデルがリンクだけでウェブページのコンテキストにアクセスして引き出すことを可能にする「URLコンテキスト」という新しいツールが導入されました。このツールにより、Geminiモデルは最大20のリンクからウェブページのコンテキストを引き出し、具体的かつ最新の情報に基づいたモデル応答を生成できます。

開発者は、「これはLive APIで今日リリースしたほんの一部です。皆さんが何を作るか楽しみです。」と語りました。

Gemini 2.5 Proとコーディングの強化

続いて、「Geminiの開発を手助けする別の方法をお見せします」として、Gemini 2.5 Proが紹介されました。Gemini 2.5 Proはコーディングに優れたモデルとして高く評価されており、AI Studioのコードエディタに統合され、SDKと密に最適化されています。これにより、Gemini APIを使ったウェブアプリを素早く生成できます。

講演では、Gemini APIを使ったウェブアプリの構築例として「GeminiとImagineを使ったAI搭載のアドベンチャーゲーム」の作成デモがありました。モデルがリクエストについて推論し、アプリの仕様を構成され、コードを生成したのちエラーがあれば自己修正されます。

開発者は「これによりGemini APIを使って素早く繰り返し開発でき、画面左側でプロンプトを素早く改良し続けることが可能なので、アイデアをさらに洗練できます」と語りました。

また、Google GenAI SDKのアップデートにより、MCP(モデル駆動型プロトタイピング)の定義がネイティブでサポートされ、オープンソースツールを活用したエージェントアプリの構築が容易になりました。ここでは、Google MapsとMCPを組み合わせた新しいアプリが紹介されました。

キーノートコンパニオン「Casey」のデモ

さらに、キーノートコンパニオン「Casey」というデモアプリが披露されました。このアプリは、この基調講演の内容を聞き、応答し、WebページのUIを動的に更新します。

デモでは、「AIと言った回数を数えて」と指示をし、動的にWebページの情報を更新してみせました。

3. AI搭載による、Androidの進化

この章では、Android 16の新機能とGemini Nanoを活用したオンデバイスAIが紹介されました。

Androidのマスコットキャラクターであるドロイド君を、自分好みのアバターにカスタマイズできる「Androidifyアプリ」では、最新のAI技術が追加される形で全面的にリニューアルされることが明らかに。具体的にはセルフィーからAndroidロボットを生成できるようになり、デモも実施されました。

Androidエコシステムでは、Geminiを活用したアプリ開発とUI/パフォーマンスの向上が強調されました。また、他にも様々なアップデートが発表されました。

AndroidとWear OSの新しいデザイン指針Material3 Expressive」

数年ぶりの大きなUIリデザインで、楽しい新機能や改善が満載。例えば、カメラの撮影ボタンが、円形だけではなくお菓子のクッキーのデザインが登場するなどしました。

Android 16

Live Updatesという新機能を追加。この機能は、ナビゲーションや配達などリアルタイムで変化する情報をロック画面にしたり、通知が受け取れるというもの。

また、向きやサイズ変更、縦横比の制限に反応しないAPI変更を行い、デフォルトでよりレスポンシブなUIを提供します。これにより、折り畳みデバイス/タブレット/ChromebookのUIがより最適化されました。

4. Chromeの新機能

Chrome 135では、新しい強力なCSSプリミティブ(頻繁に用いられるレイアウトのパターンや最小要素を抽出、再利用可能な形式にしたもの)を組み合わせて、カルーセルやオフスクリーンUI構築を劇的に簡単にしたと発表されました。

CSSカルーセルの簡単構築

新しいCSSプリミティブを使い、JavaScriptなしでカルーセルを数行のコードで構築できます。「::scroll-button()」や「::scroll-marker()」でナビゲーションを強化し、アクセシビリティも向上。

このCSSベースのカルーセル構築法の早期採用者はPinterestだとし、「前はカスタムJavaScriptカルーセルのメンテに時間を使ってた。今年、CSS APIに切り替え、2,000行のJavaScriptを200行の高性能なブラウザネイティブCSSに。コードを90%削減し、ロード時間を15%改善した」と語りました。

インタラクティブなUI

Interest Invoker APIとポップオーバーAPIを組み合わせる事で、ホバーでトリガーされるツールチップを簡単に構築。ブラウザが状態管理やARIAを処理し、複雑なUIがシンプルに実現できるようになりました。

Chrome DevToolsのAI

Gemini AI統合により、Google Chromeブラウザに組み込まれたウェブ開発者向けのツールセット「Chrome DevTools」にて、自然言語による質問でCSS修正を提案・適用できるようになりました。

パフォーマンスパネルでレイアウトシフトの原因を特定し、解決策を提示します。

組み込みAI API

GoogleはGemini Nanoを活用した7つの組み込みAI APIをChromeに展開し、データプライバシーや低レイテンシーを重視した機能を提供しました。

これには、翻訳や要約を行うAPIが含まれており、学校や企業などの厳格なデータ規制環境に適しています。事例として、「Deloitteなどの企業はこれらのAPIを統合し、開発者のオンボーディングやナビゲーションを30%高速化した」と語られました。

Baseline統合

これはブラウザ間での互換性がサポートされているAPIを分かりやすく表示する「Baseline」では、CSS機能のブラウザ互換性をVS CodeやESLintで確認可能に。近日中に対応IDEが拡大し、開発が効率化されます。これらの機能で、シンプルなCSSとAIで高性能なUI構築とデバッグが実現します。

5. Firebase Studioの拡張

Firebase Studioとは、単一プロンプトでフルスタックアプリを生成するクラウドベースのAIワークスペースです。ここでは、以下の発表がありました。

  • Figma統合: WebページをFigmaに反映させるプラグイン「Builder.io」で、Figmaデザインをコードに変換。家具店アプリのデモでは、商品グリッドから詳細ページを数分で生成。
  • バックエンド自動生成: アプリブループリントにデータベースや認証のバックエンドを自動追加。Cloud Runで即時デプロイ可能。
  • コンポーネントベース: 個別のコンポーネントを生成し、データフローやルーティングを最適化。Gemini 2.5 Proが不足データを補完。

6. Gemma 3nの発表

Googleが開発した軽量でオープンな生成AIモデルのファミリー「Gemma」に関する発表もありました。

この日発表された「Gemma 3n」は2GBのRAMで動作する軽量モデルで、音声理解を追加。Matt Gemmaは医療向けマルチモーダルモデルで、放射線画像解析や患者情報要約に活用可能です。

デモでは、Google ColabとEnslothを使い、絵文字翻訳モデルを微調整。AI First ColabでUIを生成し、カスタムモデルを比較しました。

応用例として、イルカの音声パターン解析用モデル「Dolphin Gemma」では、イルカの音声パターンを解析。アメリカ手話を音声テキストに翻訳する初のモデル「Sign Gemma」は。聴覚障害者コミュニティ向けに公開されるなど様々な用途に利用できます。

講演の感想とまとめ

Google I/O 2025のデベロッパー基調講演は、AIの民主化と開発者エコシステムの強化に焦点を当てた、刺激的な内容でした。

多数の新機能が同時に発表されたため、個々のツールの習得や実用化には時間がかかるかもしれません。講演全体を通じて、Googleが開発者コミュニティを信頼し、共に未来を築こうとする姿勢が強く感じられました。

この技術者基調講演は、AIとオープンソースの力を借りて、開発者が創造性を最大限に発揮できる時代が到来したことを確信させるものでした。

最新情報をお届けします!

最新のITトレンドやセキュリティ対策の情報を、メルマガでいち早く受け取りませんか?ぜひご登録ください

メルマガ登録

最新情報をお届けします!

最新のITトレンドやセキュリティ対策の情報を、メルマガでいち早く受け取りませんか?ぜひご登録ください

メルマガ登録