今年の Google I/O では、Google のさまざまなプラットフォームで開発する方法や、Google DeepMind 最高の AI モデルでイノベーションを起こす方法が紹介されました。以下は、デベロッパー基調講演で発表された主な内容です。
Link to Youtube Video (visible only when JS is disabled)
モデルを評価したり、Gemini API で開発を始めたりする一番速い方法は、Google AI Studioです。
Google AI Studio で Gemini API を使った開発が簡単に: Gemini 2.5 Pro がネイティブ コードエディタに組み込まれているので、短時間でプロトタイプを作成できます。また、細かな部分まで GenAI SDK に最適化されているので、テキスト、画像、動画のプロンプトから即座にウェブアプリを生成できます。シンプルなプロンプトから始めることも、ショーケースのスターター アプリから着想を得ることもできます。
Gemini API を使ったエージェント型エクスペリエンス開発: Gemini 2.5 の高度な推論機能を使ってエージェントを開発しましょう。Gemini API や、リンクを渡すだけでモデルがウェブページからコンテキストを取得できる URL コンテキストなどの新ツールを利用できます。また、Gemini SDK がモデル コンテキスト プロトコル(MCP)定義をサポートするようになるので、オープンソース ツールをさらに簡単に活用できます。
Live API の Gemini 2.5 Flash ネイティブ オーディオ: 聞き取りと発話が可能なエージェント型アプリケーションを開発しましょう。モデルの声、トーン、スピード、全般的なスタイルは完全に制御でき、24 の言語に対応しています。Gemini 2.5 Flash のネイティブ オーディオは、会話の流れを理解し、関係ない音や声を無視できるので、スムーズで自然な会話を実現できます。
Stitch で高品質な UI デザインを生成: ウェブ アプリケーションのユーザー インターフェースをデザインし、対応するフロントエンド コードを生成できる新しい AI ツールです。チャットを繰り返してデザインを進め、テーマを調整しましょう。その後は、デザインを CSS や HTML、Figma に簡単にエクスポートし、作業を継続できます。Stitch による UI デザインをお試しください。
非同期コード エージェントの Jules が公開ベータ版に: Jules は並列非同期コーディング エージェントで、GitHub リポジトリと直接連携できます。一例を挙げると、バージョンのアップグレード、テストの記述、機能のアップデート、バグの修正などのタスクを Jules に依頼できます。Cloud VM が起動し、コードベース全体で整合性をとりながら編集を行ったうえで、テストを実行します。コードに満足できたら、ブランチから pull リクエストを開くことができます。
さまざまなデバイスで優れたエクスペリエンスを簡単に開発できるようにする方法をご覧ください。
生成 AI を使ったエクスペリエンスの開発: 生成 AI を使ってアプリを強化し、インテリジェントでパーソナライズされたエージェント型アプリを実現しましょう。Gemini Nano を使って一般的なオンデバイス タスクを行う新しい ML Kit GenAI API と、自撮りを通じて自分の Android ロボットを作成できる AI サンプルアプリ Androidify を発表しました。Androidify の開発方法を確認し、デベロッパー ドキュメントを読んで開発を始めましょう。
5 億台のデバイスで動作する優れたアダプティブ アプリの開発: モバイル Android アプリは、スマートフォン、折りたたみ式、タブレット、ChromeOS の土台です。今年は、これを自動車や Android XR に展開しやすくします。Material 3 Expressive を使って、すてきなアプリを作ることもできます。
Gemini in Android Studio - 作業を支援する AI エージェント: AI コーディング コンパニオンの Gemini in Android Studio を利用すると、開発ライフサイクルのあらゆる段階で生産性を高めることができます。エンドツーエンドのテストの作成と実行に役立つエージェント型エクスペリエンス Journeys のプレビュー版や、依存関係の更新に役立つバージョン アップグレード エージェントのプレビュー版もお知らせしました。こういった Gemini in Android Studio のエージェント型エクスペリエンスを使うと、優れたアプリをすばやく開発できます。
優れた UI の開発、デバッグの高速化、新しい AI 搭載機能の作成など、強力なウェブ エクスペリエンスを簡単に作成できるようにしています。
数行の CSS と HTML でカルーセルの作成がこれまで以上に簡単に: CSS を使い、最初の描画から操作できる美しいカルーセルを作成できます。Chrome 135 では、いくつかの新しい CSS プリミティブを組み合わせることで、カルーセルなどのオフスクリーン UI の開発が劇的に簡単になります。使い慣れた CSS コンセプトを利用し、インタラクティブかつスムーズなアクセスしやすい高度なカルーセルを短時間で作りましょう。
新しい試験運用版 Interest Invoker API の導入: ユーザーがわずかな時間だけ興味を示したときに、ポップオーバーを宣言的に切り替えます。アンカー ポジショニング API とポップオーバー API を組み合わせると、ツールチップやホバーカードといった複雑でレスポンシブなレイヤ型 UI 要素を JavaScript を使わずに作成できます。Interest Invoker API は、オリジン トライアルとして利用できます。
おなじみのツールがベースライン機能に対応: VS Code で開発する際に、機能のベースライン ステータスが表示されるようになりました。VS Code ベースのその他の IDE や JetBrains の WebStorm も、近日中にサポートされます。ベースラインは、CSS の ESLint、HTML ESLint、Stylelint でもサポートされます。RUMvision は、ベースライン情報と実際のユーザーデータを組み合わせることで、対象ユーザーに最適なベースライン ターゲットを戦略的に選択できるようにします。さらに、ウェブ機能のデータセットが 100% マッピングされるため、すべての主要ブラウザのすべての機能のベースライン ステータスにアクセスできます。
Chrome DevTools の AI がデバッグ ワークフローをサポート: Chrome DevTools に Gemini を直接組み込むことで、開発ワークフローを高速化します。AI アシスタントを使うと、[Elements] パネルから変更の提案をワークスペースのファイルに直接適用できます。さらに [Performance] パネルが刷新され、強力な「AI に質問」機能が組み込まれました。コンテキストに応じたパフォーマンス情報を取得できるので、アプリケーションでウェブに関する主な指標を最適化する際に活用できます。
マルチモーダル機能など、Gemini Nano を活用できる新しい内蔵 AI API を提供: Gemini Nano は、プライバシーを強化し、レイテンシとコストを削減します。Chrome 138 以降では、Summarizer API、Language Detector API、Translator API、Chrome 拡張機能用の Prompt API が安定版として利用できます。Writer API と Rewriter API はオリジン トライアルとして、Proofreader API とマルチモーダル機能対応の Prompt API は Canary 版として利用できます。早期プレビュー版プログラムに参加して、ウェブ AI の未来を作りましょう。
Firebase を使うと、最新の AI 対応フルスタック アプリのプロトタイプ作成、開発、実行が可能です。Firebase Studio は、Gemini 2.5 を搭載したクラウドベースの AI ワークスペースです。これを使うと、数分でアイデアをフルスタック アプリに変え、プロンプトから公開まで進むことができます。
Firebase Studio で Figma のデザインを実物に: builder.io プラグインを使って Firebase Studio に直接 Figma デザインをインポートしましょう。Firebase の Gemini により、コードを一切書くことなく機能を追加できます。
Firebase Studio がバックエンドを提案: この機能は、今後数週間をかけてロールアウトされます。アプリ プロトタイピング エージェントを使うと、Firebase Studio がバックエンドの必要性を検出し、Firebase Auth や Cloud Firestore を提案してくれます。アプリを Firebase App Hosting に公開する準備ができると、Firebase Studio がサービスをプロビジョニングします。
Firebase AI Logic: クライアント アプリを介して直接、または Genkit によるサーバーサイド実装を通して、Google の生成 AI モデルと連携します。Vertex AI in Firebase から Firebase AI Logic への進化の一環として、Gemini Developer API のクライアント サイド統合、ハイブリッド推論、オブザーバビリティの強化、App Check や Remote Config などの Firebase プロダクトとの連携強化といった新機能もリリースしています。
Gemini を使って開発すると、さまざまなことを実現できます。しかし、独自のモデルをトレーニングしてチューニングする方がよい場合もあります。デバイスに収まるように設計された最先端オープンモデル ファミリーである Gemma をリリースしたのはそのためです。
早期プレビュー版の Gemma 3n: 研究イノベーションの賜物であるこのモデルは、わずか 2GB の RAM で実行できます。次世代の Gemini Nano にも採用されるモバイルファーストの高度な新アーキテクチャに基づいて開発された最初のモデルであり、ポータブル デバイスで直接動作して、比類のない AI パフォーマンスを発揮します。
マルチモーダル医療テキストおよび画像理解向けの強力なオープンモデル MedGemma: MedGemma は、Gemma 3 のバリアントです。デベロッパーは、これを出発点としてファインチューニングや適応を行い、独自のヘルスケアベースの AI アプリケーションを開発できます。サイズが小さいため、効率的に推論できます。また、オープンであるため、デベロッパーが柔軟にモデルをファインチューニングしたり、好みの環境で実行したりできます。MedGemma は、Health AI Developer Foundation の一部として公開されています。
Colab にコーディングを変革するエージェント ファーストなエクスペリエンスをリリース: Colab に Gemini 2.5 Flash が搭載され、モデルのファインチューニングなどの複雑なタスクをナビゲートしてくれるようになります。新しい AI ファーストな Colab で UI を作成し、コーディング時間を大幅に短縮する方法を紹介します。
今年中に Gemma ファミリーに追加される手話理解モデル SignGemma: 現時点で、手話を音声言語テキストに変換する最も有能なモデルです(アメリカ手話から英語への変換)。耳の不自由なユーザーがテクノロジーにアクセスする新たな方法を開発できるようにします。goo.gle/SignGemma でご意見をお聞かせください。
世界初のイルカ用大規模言語モデル DolphinGemma: イルカのコミュニケーション パターンに関する理解を深めるため、ジョージア工科大学と Wild Dolphin Project の研究者と協力し、数十年にわたる実地調査データを使って DolphinGemma をファインチューニングしました。
Google デベロッパー プログラムの AI 特典を拡大し、Gemini Code Assist Standard、新しい生成 AI デベロッパーの年間クレジット、3 か月間の Google One AI Premium などを追加します。また、新しい Google Cloud & NVIDIA コミュニティについてもお知らせしました。専用のフォーラムで両社の専門家とつながることができ、近日中に独占学習コンテンツやクレジットも提供される予定です。
基調講演のあとは、5 月 20 日から 21 日にかけて、AI、Android、ウェブ、クラウドなどに関するセッションをライブストリーミング配信します。その後、5 月 22 日より、100 以上のセッションや Codelab などを含む Google I/O のすべての発表と最新情報をオンデマンドで公開します。
世界規模の活発なデベロッパー コミュニティとつながり、LinkedIn と Instagram をフォローしましょう。世界中のデベロッパー向けに開催される I/O Connect イベントにもご参加ください。