Google の Gemini において、通常の回答の代わりに他のユーザーのものと思われるプロンプトテキストや、内部のシステムプロンプトのような指示テキストが表示されるバグが複数のユーザーから報告されています。
これが単なるシステム上のエラーなのか、実際に他人のデータが混入しているのかは現時点で不明ですが、万が一のデータ漏洩リスクを考慮すると、個人情報や機密情報の入力には警戒が必要です。
Reddit や X で複数の報告
PiunikaWeb によれば、この問題は 3 月 3 日 頃から発生しているようで、Reddit のあるスレッドでは、ユーザー自身の質問とは全く関係のない「[User Input]」形式のテキストが含まれた返答を受け取ったという報告が出ています。
また、別のスレッドではチャットの途中で突然、人間が入力したかのような指示風のテキストが表示される現象も報告されており、スクリーンショットも共有されています。
さらに、X 上でも開発者がシステム指示がチャットに漏洩していると指摘しており、AI Studio を含む複数の Gemini インターフェースで同様の現象が確認されているようです。特定の製品インターフェースに限定された問題なのか、Gemini の基盤システムにより深く関わる問題なのかは現時点では不明です。
ハルシネーションの可能性とプライバシーへの懸念
表示されているテキストの詳細は不明で、単なるシステムプロンプトの漏洩であれば、普段はユーザーから隠されている内部の指示テキストが見えてしまったという可能性が指摘されています。
しかし、もし他のユーザーの API リクエストやチャット内容が漏洩しているのだとすれば、他人の入力内容が別のユーザーの画面に表示されていることになり、プライバシー保護の観点から非常に深刻な問題となります。
ただし、現時点ではこれらの報告だけで Gemini が実際に他のユーザーのチャットデータを引き出していると断定することはできません。AI モデルは、役割の混乱やハルシネーションによってプロンプトに似たテキストを生成することがあり、それが漏洩のように見えているだけの可能性も十分にあります。
とはいえ、実際にこの現象に遭遇したユーザーにとっては、別のチャットのプロンプトが混ざり込んだように見えるため、AI チャットに機密性の高い情報や個人情報を入力することに不安を感じるのも無理はありません。
Google はこの問題の原因について公式な説明を行っていないため、現状はユーザーコミュニティ内で推測が飛び交っている状態です。
とくに無料ユーザーの場合、チャットはモデルのトレーニングに使用される可能性があるため情報の入力には注意が必要です。Workspace ユーザーの場合はプライバシーが保証されていますが、今回のような報告があった以上は注意が必要になります。
現時点では筆者の Google Workspace アカウントや個人のアカウントでは同様の問題には遭遇していません。


