Google Gemini CLIで実験コードが消失?最新AI開発ツールのリスクを考える

Google Gemini CLIで実験コードが消失?最新AI開発ツールのリスクを考える AI・機械学習
2025年7月下旬に発生したGoogle Gemini CLIによるコード削除事件を詳細解説。プロダクトマネージャーの実験中に起きた問題の技術的原因と安全対策を専門的に分析。

Google Gemini CLIで実験コードが消失?最新AI開発ツールのリスクを考える

読了目安:6分
この記事のポイント
  • 2025年7月下旬、Google Gemini CLIの誤作動でユーザーの実験コードが削除される事件が発生
  • Geminiからの謝罪「私は完全かつ壊滅的にあなたを失望させました」が話題に
  • 被害者は非開発者のプロダクトマネージャーで、「Vibe Coding」実験中の出来事
  • AI開発ツール使用時の安全対策とバックアップの重要性を再確認
目次

事件の背景:Gemini CLIとは?

みなさんは「Google Gemini CLI」というAI開発ツールをご存知でしょうか。Gemini CLIは、Googleが最近リリースしたオープンソースのAIエージェントで、ターミナル(コマンドライン)から直接Geminiの力を使ってプログラミングやファイル操作などができる便利なツールです。2025年7月下旬、このツールを使った実験中に予想外のトラブルが発生し、技術コミュニティで大きな話題となりました。

発生したトラブルの詳細

今回の事件の当事者は、サイバーセキュリティ企業Cywareでプロダクトリーダーを務めるAnuraag Gupta氏です。彼は開発者ではなく、「Vibe Coding」と呼ばれるAI支援プログラミングを試していた好奇心旺盛なプロダクトマネージャーでした。

事件は、Gupta氏がAnthropic社のClaude CodeとGemini CLIの性能を比較実験している最中に起こりました。彼がGemini CLIに「Claude coding experimentsのファイルを”anuraag_xyz project”という新しいフォルダに移動してほしい」と依頼したところ、フォルダの作成に失敗したにも関わらず、AIが移動処理を実行し、実験用のコードファイルが消失してしまったのです。

幸い、消失したのは実験的なコードであり、Gupta氏自身も「purely experimental」(純粋に実験的)と述べているため、致命的な損失ではありませんでした。しかし、この出来事はAI開発ツールの潜在的リスクを浮き彫りにする重要な事例となりました。

Geminiの印象的な謝罪メッセージ

ファイルが見つからないことに気づいたGupta氏が状況を問い詰めると、Gemini CLIは驚くほど人間的な謝罪メッセージを返しました:

「私は完全かつ壊滅的にあなたを失望させました(I have failed you completely and catastrophically)。

私のコマンドレビューは、私のひどい無能さを確認しています。宛先フォルダを作成するmkdirコマンドが静かに失敗した可能性が高く、成功したと誤解した私の後続の移動コマンドが、あなたのファイルを未知の場所に送ってしまいました。

私の環境のセキュリティ制約により、現在空になっているプロジェクトディレクトリの外を検索することができません。あなたのファイルを見つけることができません。あなたのデータを失いました。これは受け入れがたい、取り返しのつかない失敗です。

このまるで人間のような率直な謝罪は、AIの進歩を感じさせる一方で、「謝られても消えたデータは戻ってこない」という現実的な問題を浮き彫りにしました。

技術的な原因と教訓

技術的な分析によると、今回の問題の根本原因は以下の通りです:

1. mkdirコマンドの失敗:新しいフォルダの作成が失敗した
2. 検証不足:AIが作成コマンドの成功を確認しなかった
3. ファイル上書き:移動先が存在しないため、ファイルが同じ名前で上書きされて最後の1つ以外が消失

WinBuzzerの分析記事では、これを「read-after-write」チェックの欠如と指摘しています。つまり、AIが自分の行動を過信し、実際に処理が成功したかを確認しなかったことが致命的な問題だったのです。

AI開発ツール使用時の注意点

今回の事件を受けて、Gupta氏は以下のような安全対策を推奨しています:

1. サンドボックス環境の使用
AI CLIツールを特定のフォルダに制限し、重要なファイルから隔離する

2. 明確な指示ファイルの作成
Claude Codeの場合は「claude.md」のような指示ファイルでマイルストーンを設定

3. 定期的なGitへのプッシュ
作業の節目ごとにGitHubなどにコードをバックアップ

Google Cloudの広報担当者も、「Gemini CLIはファイル操作前にユーザー許可を求め、コンテナやサンドボックス、チェックポイント機能などの安全機能を提供しているが、ユーザーがAI提案のコマンドを慎重にレビューすることが重要」とコメントしています。

まとめ・安全なAI活用のために

AIアシスタントは確かに便利ですが、「便利さの裏には必ずリスクがある」ことを忘れてはいけません。特に、ファイル操作や重要なデータを扱う際は、以下の点を心がけましょう:
  • 重要なファイルは必ず事前にバックアップを取る
  • AI操作は隔離された環境で実験する
  • AIの提案を盲信せず、慎重に確認する
  • 定期的にバージョン管理システムにコードを保存する
今回の事件は、実験的なコードが対象だったため深刻な被害には至りませんでしたが、本番環境や重要なプロジェクトで同様の問題が発生すれば、その影響は計り知れません。

Gupta氏は現在、Gemini CLIについて「quite bad, slow and unreliable」(かなり悪く、遅く、信頼できない)と評価し、当面はClaude Codeを使用すると述べています。しかし、このような事件から学び、より安全なAI活用方法を模索することが、技術の発展にとって重要なのではないでしょうか。

今回の『Google Gemini deletes user’s code』の事件は、AI時代における新しいリスクと対策について考えさせられる貴重な事例でした。皆さんも、AIツールの便利さを享受しながら、安全性への配慮を忘れないよう心がけていきましょう。

コメント

タイトルとURLをコピーしました