Google は、開発者向け番組「The Android Show (Fall 2025)」で、Gemini との連携強化や Android Studio の AI 機能拡張、初の Android XR デバイスなど、多数の新発表を行いました。
これらの新機能は、開発者だけでなく Pixel や Chromebook を含む Google エコシステム全体に波及する可能性を示しています。
Gemini を活用した AI 機能が Android Studio に統合
Google は、Gemini Nano モデルを活用する新しい「Prompt API (Alpha 版)」を発表しました。
開発者は任意のプロンプトを渡すことで、アプリ内に生成 AI 機能を直接組み込むことができ、デバイス上で安全に処理を完結させられます。ユーザーデータがクラウドに送信されないため、プライバシーにも配慮された設計です。
Android Studio には、Gemini による「Agent Mode」も拡張されました。自然言語で開発目標を指定すると、AI が複数のファイルにわたる変更を計画・実行します。
AI は最新のドキュメントを参照しながら修正提案を行い、開発者は作業全体を効率化できます。さらに今後は、任意の LLM を選択して Android Studio の AI 機能を動作させることも可能になります。
Firebase で Imagen・Nano Banana が利用可能に
Firebase SDK では、Gemini 2.5 Flash Image(コードネーム:Nano Banana)や Imagen モデルを使った画像生成・編集機能が追加されました。新しいマスク編集機能により、画像の一部を選択して加工することもできます。
また、Gemini Flash は音声入力からテキストを生成する機能を備え、インドの RedBus 社ではこの技術を利用してレビュー投稿機能を改善。ユーザーは自分の母語で音声入力を行うだけで、構造化されたテキストレビューを自動生成できるようになりました。
Android XR デバイス、初の「Galaxy XR」が登場
Samsung と提携し、Android ベースの初の XR デバイス「Galaxy XR」が発表されました。
Android XR は Gemini 時代に設計された新しいプラットフォームで、既存の Android フレームワークをそのまま活用できます。
開発者向けには「Jetpack XR SDK」が提供され、既存のアプリを短期間で空間対応アプリへと拡張できます。Calm はこの SDK を用いて、既存コードを活かした新しい空間アプリをわずか 2 週間で構築したと報告しています。
Google Play も AI 活用で運用効率を改善
Google Play Console は、アプリ運用を効率化する新機能を追加しました。
AI による分析サマリー生成や文字列ローカライズ支援などが導入され、開発から公開、運用までの流れを一貫して最適化できます。
新しいダッシュボードでは、アプリの目標達成度や主要な指標をすぐに確認できるようになっています。
LLM 向け Android ベンチマークを公開予定
Google は、Android 開発に最適化された大規模言語モデル (LLM) の品質向上を目的として、新しいベンチマークタスクセットを構築しています。
実際の GitHub 上のプルリクエストを再現してテストを行い、モデルが依存関係を理解して複雑なコードを正しく修正できるかを評価します。結果は今後数か月以内に公開予定です。
まとめ
今回の「The Android Show 2025 秋」では、Gemini を中心とした AI 機能が Android 全体に深く統合される方向性が明確になりました。
Android Studio、Firebase、Play Console、XR プラットフォームといった開発・運用の各段階に AI が組み込まれ、開発者の生産性を底上げする環境が整いつつあります。
Google は AI を軸にした Android の再構築を進めており、この取り組みは Pixel や Chromebook、さらには Google Workspace などの他サービスにも広がっていくとみられます。


