ターミナルで完結するAI開発ツール「Gemini CLI」が、2026年3月4日にv0.32.1をリリースしました。GitHubスター数96,000超を誇り、オープンソースのAI CLIツールとして急速に存在感を高めているこのツールが、今回のアップデートでさらに実用性を増しています。
「最近Gemini CLIを導入したけど、最新機能を把握しきれていない」「v0.32系で何が変わったのか知りたい」という方に向けて、本記事ではv0.32.0〜v0.32.1の変更内容を徹底的に解説します。Plan Mode(計画モード)の大幅強化からマルチエージェント基盤の整備、実験的なGemmaルーターの導入まで、エンジニア目線で実務にどう活きるかを具体的にお伝えします。
- Gemini CLI v0.32.1の概要と位置づけ
- Plan Mode(計画モード)の大幅強化
- マルチエージェント基盤の整備と「Generalist Agent」の有効化
- 実験的機能:Gemmaルーターの統合
- シェル自動補完とUX改善
- モデル・認証・テレメトリの改善
- 他のAI CLIツールとの比較
- v0.33.0プレビューで見えてくる次の進化
- エンジニア・ビジネスパーソン別の活用ユースケース
- 注意点・デメリット
- まとめ:v0.32.xが示す「実用AIツール」への着実な進化
Gemini CLI v0.32.1の概要と位置づけ
v0.32.1はパッチリリース、主役はv0.32.0
まず正確に理解しておきたいのが、バージョン体系です。v0.32.1は、v0.32.0に対するバグフィックスのパッチリリースです。fix(patch): cherry-pickによって安定性に影響するコミットを取り込んだもので、リリース日は2026年3月4日。主要な新機能はv0.32.0で投入されており、v0.32.1はその品質をさらに高めたバージョンと理解するのが正確です。
そのため本記事では、v0.32.0で追加された機能群とv0.32.1によるパッチ内容をまとめて「v0.32.x系アップデート」として解説します。
v0.32.xリリース前後の流れ
| バージョン | リリース時期 | 概要 |
|---|---|---|
| v0.31.0 | 2026年2月下旬 | シェル自動補完ベータ、エクステンションMCPサーバー修正 |
| v0.32.0 | 2026年3月初旬 | Plan Mode大幅強化、Generalist Agent有効化、Gemmaルーター実験導入 |
| v0.32.1 | 2026年3月4日 | パッチ:安定性に関するcherry-pick修正 |
| v0.33.0-preview.1 | 同時期プレビュー | LXCサンドボックス実験、ループ検出強化、@fileオートコンプリート改善 |
Plan Mode(計画モード)の大幅強化
タスク複雑度に応じた計画ワークフローの自動適応
v0.32.0で最も注目すべき変更の一つが、Plan Modeの大幅なアップグレードです。
これまでのPlan Modeは、ユーザーの指示に対して一律の計画フローを適用していました。v0.32.0では「タスクの複雑度に基づいて計画ワークフローを自動的に適応させる」機能が実装されました(feat(plan): adapt planning workflow based on complexity of task)。
具体的には、次のような使い分けが行われます:
- シンプルなタスク(例:1ファイルの修正、単純なコマンド実行):軽量な計画フローを選択し、余分な確認ステップをスキップ
- 複雑なタスク(例:複数サービスにまたがるリファクタリング、テスト込みの機能追加):詳細な計画ステップを生成し、各段階での承認を求める
エンジニアの観点でいえば、「毎回同じ重さの確認フローを強いられる」というUX上のストレスが軽減されます。小さな作業はサクサク進め、大きな変更はしっかり確認する、という自然な作業リズムをAIが理解してくれるようになりました。
外部エディタでの計画ファイル編集対応
もう一つの大きな改善が、プランファイルを外部エディタで開いて直接編集できる機能の追加です(feat(plan): support opening and modifying plan in external editor)。
これまでPlan Modeで生成された計画はCLI上でしか確認・修正できませんでしたが、今回の変更でVimやVS Code、Emacsなど使い慣れたエディタでプランを編集できるようになりました。
実際の使いどころとしては:
- 長大な計画をターミナル上でスクロールしながら編集するのが煩わしかった場面
- チームメンバーにプランをレビューしてもらいたい場合(ファイルとして共有可能)
- CI/CDパイプラインと組み合わせて計画ファイルをバージョン管理したい場合
複数のエンジニアが関わる開発現場において、AIが生成した計画をチームで共有・レビューするワークフローが現実的に組めるようになりつつあります。
/memory addがPlan Modeでも利用可能に
細かいながら実用的な改善として、/memory addコマンドがPlan Mode中でも使えるようになった点が挙げられます(fix(core): allow /memory add to work in plan mode)。
Plan Mode中に「あ、この設定を記憶させておきたい」と気づいたとき、従来はモードを切り替える必要がありました。v0.32.0からはその手間がなくなり、計画立案中にシームレスに記憶操作が行えます。
マルチエージェント基盤の整備と「Generalist Agent」の有効化
Kind.Agentによるサブエージェント分類の導入
Gemini CLIのアーキテクチャ面での重要な変化として、Kind.Agentという分類概念の導入があります(feat(core): introduce Kind.Agent for sub-agent classification)。
「エージェント(Agent)」とはAIが自律的にタスクを実行する仕組みのことで、ツール呼び出し(コードの実行、ファイル操作、Web検索など)を連鎖させて複雑な作業をこなします。Kind.Agentはその中でも「サブエージェント」(親エージェントから呼び出される子エージェント)を明示的に分類するための仕組みです。
これと合わせて実装された機能がいくつかあります:
feat(core): enable contiguous parallel admission for Kind.Agent tools:サブエージェントツールの並列実行を最適化。複数のサブタスクを同時処理することで全体の実行時間を短縮fix(cli): prevent sub-agent tool calls from leaking into UI:サブエージェントの内部処理がUIに漏れ出す問題を修正。ユーザーには必要な情報のみが表示されるよう整理
これらの変更は、Gemini CLIが「単一AIへの質問応答ツール」から「マルチエージェントオーケストレーション基盤」へと進化していることを象徴しています。
Generalist Agentの有効化
feat(core): Enable generalist agentは、汎用エージェントモードを本格的に有効化した変更です。
Generalist Agentとは、特定ドメインに特化せず、幅広いタスク(コーディング、ドキュメント作成、調査など)を横断的にこなせるエージェントの動作モードです。これが有効になることで、ユーザーが「今からコーディングタスクね」「今からドキュメントタスクね」と明示しなくても、Gemini CLIがタスクの性質を判断して適切な動作をしてくれるようになります。
A2Aストリーミングの安定性向上
A2A(Agent-to-Agent)とは、複数のAIエージェントが互いに通信・連携する仕組みです(人間が仲介せず、エージェント同士が直接やり取りする)。
v0.32.0では以下の改善が行われました:
feat(core): implement robust A2A streaming reassembly and fix task continuity:A2Aのストリーミングデータ再組み立てを堅牢化。ストリーム途中の切断や断片化によってタスクが中断される問題を修正feat(core): improve A2A content extraction:A2Aプロトコルで受け取るコンテンツの抽出精度を向上
実務への影響:複数のAIエージェントを連携させた自動化パイプラインを組む際の信頼性が増します。例えば「調査エージェント → 実装エージェント → テストエージェント」という連鎖タスクが、途中でコンテキストを失わずに完遂できるようになります。
タスクトラッカーの基盤実装
feat(core): implement task tracker foundation and serviceにより、タスクの進行状況を追跡するサービスの基盤が実装されました。
現時点では「基盤」の実装段階であり、UIへの完全な露出はこれからですが、長時間実行されるエージェントタスクの状態管理に活用される布石です。将来的には、「現在どのサブタスクを処理中か」「全体の何%が完了したか」といった情報を可視化する機能につながることが期待されます。
実験的機能:Gemmaルーターの統合
LiteRT-LMを使ったオンデバイスモデル分類の試み
v0.32.0の中で最も先進的な実験として注目されるのが、Gemma × Gemini CLIのルーター統合です([Gemma x Gemini CLI] Add an Experimental Gemma Router that uses a LiteRT-LM shim into the Composite Model Classifier Strategy)。
少し解説が必要なので、用語から整理します:
- Gemma:Googleが公開しているオープンウェイト(重みを公開している)の軽量AIモデル
- LiteRT-LM:エッジデバイスやローカル環境で効率的にAIモデルを動かすためのランタイム(TensorFlow Liteの後継)
- Composite Model Classifier:「このタスクはどのモデルに任せるべきか」を判断する複合分類器
つまり、ローカルで動くGemmaモデルを使って「タスクの振り分け判断」を行うという仕組みです。クラウドAPIを呼び出す前に、軽量なオンデバイスモデルが「このリクエストは複雑かシンプルか」を判断し、適切なルーティングを行うことでレイテンシ削減やコスト最適化を目指しています。
現時点では「Experimental(実験的)」な機能であり、本番利用には慎重さが必要ですが、今後の方向性を示す重要な変更です。特にオフライン環境や低レイテンシが求められるユースケースへの展開が期待されます。
シェル自動補完とUX改善
インタラクティブシェルオートコンプリートの実装
feat(cli): implement interactive shell autocompletionにより、ターミナル上でのコマンド入力補完が利用可能になりました(v0.31.0から段階的に導入されv0.32.0系で安定化)。
具体的には:
- スラッシュコマンド(
/memory、/chatなど)の補完候補をタブキーで表示 @file参照でのファイルパス補完(v0.33.0 previewでさらに改善:ファイル名を優先するよう強化)- モデル名、設定項目などの候補表示
これはCLIツールとしての「当たり前の快適さ」の実現であり、普段VS CodeやJetBrains IDEのコード補完に慣れているエンジニアが感じる「ターミナルツールのとっつきにくさ」を解消するものです。
UI・エラー表示の改善
使い心地に影響するUX改善も多数盛り込まれています:
| 変更内容 | 効果 |
|---|---|
Add low/full CLI error verbosity mode |
エラー表示量をlow/fullで切り替え可能に。通常操作時はエラーをシンプルに、デバッグ時は詳細に |
feat: better error messages |
エラーメッセージの質を向上。特にGoogleアカウントでの認証後にプロジェクトIDが必要な場合のメッセージを改善 |
fix: prevent orphaned processes from consuming 100% CPU |
ターミナルを閉じた後も残る「孤立プロセス」がCPUを100%消費し続ける問題を修正 |
fix(cli): hide shortcuts hint while model is thinking |
モデルが考え中やプロンプト入力中はショートカットヒントを非表示に(画面の見通し改善) |
fix(ui): correct styled table width calculations |
テーブル表示の幅計算を修正。表がはみ出したり崩れる問題を解決 |
特に「孤立プロセスによるCPU 100%消費」は開発マシンのバッテリーやパフォーマンスに直結する問題だったため、実用面での影響が大きい修正です。
モデル・認証・テレメトリの改善
ワークスペースでのモデルステアリング有効化
feat(core): Enable model steering in workspaceにより、ワークスペース単位でモデルの動作方向(ステアリング)を設定できるようになりました。
モデルステアリングとは、システムプロンプトや設定によってモデルの応答傾向を誘導する仕組みです。例えば「このワークスペースではTypeScriptのコードのみ出力する」「コメントは日本語で書く」といったワークスペース固有のルールを永続化できます。
合わせて、fix(cli): expose model.name setting in settings dialog for persistenceにより設定ダイアログでモデル名を保存できるようになりました。「起動するたびにモデル指定をやり直す」手間がなくなります。
認証・クォータ管理の強化
クラウドAPIを使う上で避けられない「クォータ(利用制限)」と「認証エラー」への対処も強化されました:
feat(core): add HTTP 499 to retryable errors:クライアント側がリクエストをキャンセルした場合(HTTP 499)も自動リトライ対象に追加fix(cli): support quota error fallbacks for all authentication types:OAuthやAPIキーなど、すべての認証タイプでクォータエラー時のフォールバックが機能するよう修正feat(billing): implement G1 AI credits overage flow:G1(Google Cloud AI)のAIクレジット超過時のフロー実装とテレメトリ対応
OTELテレメトリの強化
feat(telemetry): Instrument traces with more attributes and make them available to OTEL usersにより、OpenTelemetry(OTEL)準拠のトレース情報が充実しました。
OTELとはオブザーバビリティ(システムの可観測性)のための業界標準規格です。Gemini CLIをCI/CDや本番環境の自動化パイプラインに組み込む際、Datadog、Grafana、Jaegerなどの監視ツールにトレース情報を送れるようになります。企業の開発チームがGemini CLIを組織的に運用する際の基盤として重要な改善です。
他のAI CLIツールとの比較
v0.32.xのアップデートを踏まえ、主要なAI CLIツールと現時点での機能比較を整理します。
| 項目 | Gemini CLI v0.32.1 | Claude Code (最新) | GitHub Copilot CLI |
|---|---|---|---|
| ベースモデル | Gemini 2.5 Pro/Flash | Claude Opus/Sonnet | GPT-4o/Codex系 |
| Plan Mode | ✅ 複雑度適応型 | ✅ あり | ❌ なし |
| マルチエージェント | ✅ A2A対応・実験段階 | ✅ Claude Code間連携 | △ 限定的 |
| オープンソース | ✅ MIT License | ❌ プロプライエタリ | ❌ プロプライエタリ |
| 無料利用枠 | ✅ 個人は無料枠あり | △ 有料プランが基本 | △ 無料枠あり |
| シェル補完 | ✅ v0.32系で強化 | ✅ あり | ✅ あり |
| ローカルモデル対応 | ✅ Gemma実験導入 | ❌ クラウドのみ | ❌ クラウドのみ |
| MCP対応 | ✅ 対応 | ✅ 強力に対応 | △ 一部対応 |
| テレメトリ(OTEL) | ✅ v0.32系で強化 | △ 限定的 | ❌ 非公開 |
| エクステンション | ✅ ポリシーエンジン対応 | △ 開発中 | ❌ なし |
Gemini CLIの最大の差別化ポイントはオープンソースであることと無料枠の広さ、そしてPlan Modeの実用性です。一方、Claude Codeは特にコードの理解力と補完品質で定評があり、用途によって使い分けるのが現実的です。
v0.33.0プレビューで見えてくる次の進化
v0.32.1と同時期にv0.33.0-preview.1も公開されており、次世代の機能が垣間見えます。
LXCコンテナサンドボックス(実験的)
feat(sandbox): add experimental LXC container sandbox support
LXC(Linux Containers)を使ったサンドボックス環境が実験的に追加されました。AIがコードを実行する際に、ホストOSから分離されたコンテナ内で実行することでセキュリティを強化する仕組みです。現在はDockerサンドボックスが主流ですが、LXCという選択肢が加わることでよりきめ細かな分離制御が可能になります。
ループ検出とモデルフィードバック
feat(loop-reduction): implement iterative loop detection and model feedback
AIエージェントが「無限ループ」に陥る問題への対策です。エージェントが同じツール呼び出しや思考パターンを繰り返し続けていることを検出し、モデルにフィードバックして軌道修正させる仕組みが実装されます。長時間実行タスクの安定性向上に直結します。
@fileオートコンプリートの優先度改善
feat(core): improve @file autocomplete to prioritize filenames
@fileでファイルを参照する際の補完において、ファイル名を優先的に表示するよう改善されます。ディレクトリ名ではなくファイルが先に候補に出るため、操作がより直感的になります。
エンジニア・ビジネスパーソン別の活用ユースケース
ITエンジニア向けユースケース
ユースケース1:複雑なリファクタリングタスクへのPlan Mode活用
大規模なコードベースの変更(例:Node.js 18 → 20 へのアップグレード、非推奨APIの一括置換)で、Gemini CLIのPlan Modeを使うと:
- 変更影響範囲の調査計画が自動生成される
- 計画を外部エディタで確認・修正できる(v0.32.0新機能)
- 複雑度に応じて確認ステップが調整される(v0.32.0新機能)
- 段階的に実行し、各ステップで人間がレビュー
一人では数時間かかる影響調査と修正計画が、AIとの協働で大幅に短縮できます。
ユースケース2:CI/CDパイプラインへの組み込み
OTELテレメトリ強化(v0.32.0)により、CI/CDパイプラインにGemini CLIを組み込み、実行ログをDatadogやGrafanaに送って可視化する構成が組みやすくなりました。例えば:
- プルリクエスト時に自動でコードレビューエージェントを起動
- 実行ログをOTELで収集、実行時間や成功率をダッシュボード化
- クォータエラー時は自動でフォールバック(v0.32.0強化)
ユースケース3:チーム開発でのプラン共有
Plan Modeで生成した計画を外部エディタで開き、GitHubのPRコメントやSlackに貼り付けてチームレビュー。AI提案の作業計画を人間がチェックしてから実行するというワークフローが現実的になります。
ビジネスパーソン向けユースケース
ユースケース4:ドキュメント自動整備
Generalist Agent(v0.32.0有効化)を使えば、「このディレクトリのPythonスクリプト群からREADMEとAPIドキュメントを自動生成して」という指示で、コードを解析しながらドキュメントを生成する一連の作業が自動化できます。
ユースケース5:エラーログの調査・報告書作成
アプリケーションのエラーログをGemini CLIに渡し、「問題点の特定と再発防止策のレポートをMarkdownで作成して」と指示するだけで、障害報告書の素案が生成できます。エラーの詳細表示機能(verbosity mode、v0.32.0)が充実したため、デバッグ情報の取得も容易になりました。
注意点・デメリット
実用的な情報として、現時点でのGemini CLI v0.32.xの制約も把握しておきましょう。
1. 実験的機能の安定性 Gemmaルーター統合やLXCサンドボックス(v0.33.0 preview)は「Experimental」フラグが付いており、本番環境での使用は慎重に。動作が変わる可能性があります。
2. マルチエージェント機能はまだ発展途上 A2AストリーミングやKind.Agentなどマルチエージェント機能は基盤整備の段階です。複雑なエージェント連携を本番に組み込む際は十分な検証が必要です。
3. Plan Modeの計画品質はモデル依存 計画の精度はバックエンドのGeminiモデルの能力に依存します。特に初めてのコードベースでは計画の見当違いが起きることもあるため、必ず人間がレビューする運用を推奨します。
4. クォータ管理の複雑さ 無料枠内で使う場合、クォータ(利用制限)に達するとリクエストが失敗します。v0.32.0でフォールバック処理は改善されましたが、長時間の自動化タスクを走らせる場合は有料プランの検討も視野に。
5. Windows環境での一部機能制限 LXCサンドボックスはLinux限定の技術です。Windows環境ではこの機能は利用できません(Docker sandboxは利用可能)。
まとめ:v0.32.xが示す「実用AIツール」への着実な進化
Gemini CLI v0.32.xは、単なる機能追加を超えて、「AIエージェントを現実の開発ワークフローに組み込む」ための基盤固めが行われたアップデートです。
特に重要な変化を3点に絞ると:
Plan Modeの成熟:複雑度適応、外部エディタ編集、/memory統合により、AI主導の作業計画が実務の開発フローに溶け込める品質に近づいた
マルチエージェント基盤の整備:Kind.Agent、A2Aストリーミング安定化、タスクトラッカー基盤により、複数AIエージェントが連携する「エージェント型自動化」の土台ができつつある
オブザーバビリティの強化:OTELテレメトリの充実により、組織的・本番的な運用への扉が開かれた
v0.33.0ではループ検出やLXCサンドボックスといった安全性・信頼性向上の施策が続きます。GitHub上でのコミュニティの活発さ(スター96,000超)を考えると、今後も急速な進化が続くことが期待されます。
「まだGemini CLIを試したことがない」という方は、まずnpm install -g @google/gemini-cliでインストールし、Googleアカウントでサインインするだけで無料枠内での利用が始められます。Plan Modeで小さなコードタスクから試してみることをお勧めします。
関連情報 - Gemini CLI GitHubリポジトリ:https://github.com/google-gemini/gemini-cli - リリースノート(v0.32.1):https://github.com/google-gemini/gemini-cli/releases/tag/v0.32.1 - リリースノート(v0.32.0):https://github.com/google-gemini/gemini-cli/releases/tag/v0.32.0