ChatGPTには今年4月からデータ漏洩の問題が見つかっている。攻撃者は、プロンプト インジェクション攻撃中にイメージ マークダウン レンダリングを使用する可能性があります。 OPENAI は必要な検証を実行しないため、攻撃者はユーザー セッションのコンテンツを取得し、それをサードパーティのサーバーに送信する可能性があります。
セキュリティ研究者のwunderwuzzi氏が発表したニュースによると、OPENAIはこうした問題の修復を開始したが、完全な修復ではなく緩和計画が展開されているという。
現在実装されている緩和ソリューションは、ChatGPT Web バージョンにのみ適用されます。サーバーがハイパーリンク付きの画像タグを返すと、ChatGPT は画像を表示する前に検証 API を呼び出します。この呼び出しは url_safe という名前のエンドポイントであり、ターゲット URL をクエリ パラメーターとして追加します。実際には偽の結果を返します。つまり、画像をレンダリングせず、攻撃者のサーバーにデータを送信しません。
ただし、この緩和策は完全ではありません。テストの結果、どのドメインの他の画像も表示される場合があり、ChatGPT は画像に対してネットワーク クエリを実行します。たとえば、Bing 検索を通じて画像が存在するかどうかを確認したり、追跡機能やその他の機能があるかどうかを確認したりします。
調査の結果、研究者らは、テキストを個々の文字に分割し、文字ごとにリクエストを作成するなど、データを送信し続ける方法があることを発見しました。これもデータを盗む可能性がありますが、非常に非効率で非常に時間がかかります。
もちろん、OPENAI がこの問題への対応を開始したので、今後さらに多くの対策が講じられることは当然ですが、この問題を完全に解決するにはさらに時間がかかる可能性があります。