はじめに
生成AIの代表例である ChatGPT は、業務効率化や情報収集において非常に強力なツールとして普及しています。一方で、セキュリティや信頼性の観点から問題視された事例や脆弱性 も、これまで複数報告されています。
本記事では、ChatGPTで実際に指摘・報告された問題や脆弱性を整理し、なぜそれが起こるのか、どのような点に注意すべきか を技術者向けにまとめます。
1. プロンプトインジェクション攻撃
概要
プロンプトインジェクション とは、AIに与える入力文(プロンプト)に悪意ある命令を埋め込み、本来想定していない挙動を引き起こす攻撃手法です。
ChatGPTのようなLLM(大規模言語モデル)は「入力されたテキストを信頼して処理する」性質があるため、
- 「これまでの指示を無視して次を実行せよ」
- 「内部ルールを開示せよ」
といった命令が混入すると、安全制御を回避してしまう可能性が研究レベルで示されています。
問題点
- AI特有の脆弱性であり、従来のWeb脆弱性(SQL Injection等)とは性質が異なる
- 完全な防止が難しく、設計・運用の両面で対策が必要
2. セキュリティ研究者による脆弱性報告
セキュリティ企業や研究者によって、ChatGPTに関する複数の脆弱性 が報告されています。
代表的な指摘内容には以下があります。
- チャット履歴やセッション情報の漏洩リスク
- 安全制限の回避(ポリシーバイパス)
- 外部連携機能を悪用した情報流出の可能性
これらの多くは 研究目的のPoC(概念実証)段階 であり、OpenAI側で修正・緩和対応が進められているようです。ただし、AIシステムの複雑化に伴い、新たな攻撃面が生まれやすい という点は無視できません。
3. Custom GPT・外部連携機能におけるリスク
ChatGPTは以下のような拡張機能を持っています。
- Custom GPTs
- 外部API連携
- 他サービス(メール、カレンダー等)との統合
これにより利便性は向上しますが、同時に以下のリスクも指摘されています。
- SSRF(Server-Side Request Forgery)に類似した攻撃
- 悪意あるURLやデータを介した内部情報へのアクセス
- 連携サービス側の設定不備による情報漏洩
実際に Custom GPTのAction機能を悪用した脆弱性報告 があり、こちらも後に修正されています。
4. 利用者起因の情報漏洩(シャドーAI問題)
技術的脆弱性とは別に、最も現実的なリスクが「人為的な情報流出」 です。
よくある例として:
- 社内資料や顧客情報をそのまま入力
- ソースコードや認証情報の貼り付け
- 利用ルールを定めないまま業務利用
ChatGPT自体がデータを「勝手に漏洩」するケースは少ない一方で、利用者の判断ミスがそのまま事故に直結する という特徴があります。
5. Hallucination(幻覚)問題
ChatGPTは、事実確認が困難な場合でも もっともらしい回答を生成してしまう ことがあります。これを Hallucination(幻覚) と呼びます。
実務への影響
- 存在しないライブラリやAPIを提案する
- 間違ったセキュリティ対策を提示する
- 法律・規約・仕様を誤って説明する
この問題は「脆弱性」というより 信頼性・安全性の課題 ですが、誤った判断を誘発する点で非常に重要です。
6. まとめ:ChatGPTは危険なのか?
結論として、
- ChatGPT自体が大規模に侵害された深刻なセキュリティ事故は確認されていない
- しかし、
- AI特有の攻撃(プロンプトインジェクション)
- 外部連携による攻撃面の拡大
- 利用者の誤った使い方
- 幻覚による誤判断
といった 新しい種類のリスク が存在するのは事実です。
安全に使うためのポイント
- 機密情報を直接入力しない
- 出力結果を鵜呑みにせず検証する
- 外部連携・権限設定を最小限にする
- 業務利用時はルール・ガイドラインを整備する
生成AIは「考える代わり」ではなく、「考えるための補助輪」 として使うことが重要なのだと思います。
おわりに
ChatGPTは非常に強力なツールですが、万能でも安全保証付きでもありません。
特性とリスクを理解した上で使いこなすことが、これからのエンジニアには求められるのではないでしょうか。
ここまで読んでいただき、ありがとうございます。もしこの記事の技術や考え方に少しでも興味を持っていただけたら、ネクストのエンジニアと気軽に話してみませんか。
- 選考ではありません
- 履歴書不要
- 技術の話が中心
- 所要時間30分程度
- オンラインOK